luk

AI Act

Den europæiske AI-forordning også kaldet “AI Act” – repræsenterer et afgørende skifte i reguleringen af digital teknologi. Hvor virksomheder tidligere kunne implementere kunstig intelligens relativt frit, vil AI Act fremover kræve, at danske organisationer arbejder mere struktureret, dokumenteret og gennemsigtigt med AI-baserede systemer.

AI Act er ikke blot endnu en lov med jura og paragraffer, men en ramme, der definerer, hvad ansvarlig AI er, og dermed også, hvordan virksomheder fremover skal bygge tillid og kvalitet omkring deres AI-løsninger.

Denne artikel giver et samlet, strategisk overblik over forordningen og dens praktiske betydning for erhvervslivet.

Formålet med AI Act

Selvom AI Act ofte omtales i sammenhæng med regulering og compliance, er dens primære formål ikke at begrænse virksomheder, men at skabe en kontrolleret og sikker ramme for udvikling og anvendelse af AI-systemer. Det skyldes især den hastighed, som AI har udviklet sig med de seneste år, og de samfundsmæssige risici, der følger med. AI Act skal sikre:

  • Beskyttelse af borgeres grundlæggende rettigheder
    AI må ikke krænke privatliv, føre til diskrimination eller begrænse borgeres rettigheder uden lovhjemmel.
  • Gennemsigtighed i AI-systemer
    Virksomheder skal kunne forklare, hvordan AI arbejder, især når output har betydning for mennesker.
  • Sikker og ansvarlig innovation
    Forordningen skal styrke tilliden til AI ved at sikre både brugere og virksomheder mod utilsigtede effekter.
  • Ensartede regler på tværs af EU
    AI Act er udformet som en forordning for at undgå nationale særregler og skabe et stabilt digitalt indre marked.

 

Med andre ord: AI Act er sat i verden for at sikre, at AI implementeres forsvarligt, dokumenteret og i respekt for samfundets grundlæggende værdier.

 

Tidslinje for implementering

Selvom AI Act er omfattende, rulles den ud i etaper for at give virksomheder tid til at tilpasse processer, systemer og dokumentation. Det betyder dog også, at visse dele allerede gælder i dag.

Tidspunkt Hovedpunkter
August 2024 AI Act trådte i kraft og de første overordnede forpligtelser skulle implementeres.
Februar 2025 Forbud mod AI med uacceptabel risiko. Krav til udbydere af generelle AI-modeller.
August 2025 Regler for eftermarkedsovervågning bliver gældende.
Februar 2026 Særlige krav til udvalgte storskala-informationssystemer.
August 2026 Højrisiko-AI reguleres i praksis. Krav til dokumentation, kvalitet og kontrol.
Inden 2030 Fuld implementering forventes. Mulige skærpelser og nye fortolkninger.

 

EU’s risikobaserede klassificering af AI 

AI Act bygger på en risikobaseret tilgang, som skaber en differentieret regulering afhængigt af, hvor stor indvirkning AI-systemet har på mennesker og samfund. Klassificeringen er central, fordi den afgør, hvilke krav der gælder for dokumentation, ansvar og drift.

1. Uacceptabel risiko (forbudt – ingen undtagelser)

Denne kategori dækker AI-systemer, der anses som skadelige eller uetiske. De indebærer betydelige risici for borgernes frihedsrettigheder og tillid til samfundets institutioner. Eksempler omfatter:

  • Social scoring, hvor borgere rangeres hierarkisk efter adfærd eller data.
  • Manipulation af menneskelig adfærd, fx politisk påvirkning gennem AI-genereret indhold.
  • Biometrisk identifikation i realtid, som kan føre til overvågning af befolkningen.
  • Emotion recognition anvendt i arbejdssammenhænge eller undervisning.

Disse systemer er totalforbudt på tværs af EU’s medlemsstater.

2. Høj risiko (strengt reguleret)

Højrisiko-systemer bruges i situationer, hvor AI kan få væsentlig betydning for borgernes liv, sikkerhed eller økonomi. Derfor stilles der høje krav til dokumentation, kvalitet, transparens og menneskelig kontrol. Områder omfatter blandt andet:

  • HR og rekruttering, hvor AI vurderer eller frasorterer kandidater.
  • Finans og kreditvurdering, hvor beslutninger påvirker økonomisk adgang.
  • Sundhedssektoren, hvor AI kan støtte diagnoser.
  • Kritisk infrastruktur, fx energiforsyning, vand, transport og beredskab.
  • Sociale ydelser, fx vurdering af borgeres berettigelse.
  • Uddannelse, herunder automatiseret karaktergivning.

 

For disse systemer skal virksomheder blandt andet dokumentere datagrundlag, risikoanalyse, driftsprocedurer og menneskelig oversight.

3. Begrænset risiko (primært gennemsigtighedskrav)

Denne kategori omfatter AI-systemer, der ikke har direkte eller væsentlig indvirkning på borgeres rettigheder, men som stadig skal anvendes transparant. Typiske eksempler er:

  • Chatbots, der interagerer med kunder eller medarbejdere.
  • Deepfakes i marketing eller kommunikation, hvor brugeren skal informeres.
  • Generativ AI, der producerer tekst, billeder eller lyd.

 

Her er det centrale krav, at brugerne tydeligt informeres om, at indholdet er AI-genereret.

AI Act som strategisk værktøj

AI Act bør opfattes som en anledning til at professionalisere virksomhedens tilgang til AI. Forordningen giver virksomheder en struktureret ramme for:

  • Ansvarlig udvikling
  • Risikostyring
  • Dokumentation
  • Gennemsigtighed
  • Datakvalitet
  • Governance

 

Virksomheder, der implementerer disse principper tidligt, vil stå stærkere i relation til kunder, samarbejdspartnere og myndigheder, og vil opleve en langt mere moden, sikker og skalerbar AI-anvendelse.