AI Act: EU’s nye forordning om kunstig intelligens

Forordningen vedr. Kunstig Intelligens (AI Act) er et lovgivningsinitiativ fra EU, der sigter mod at regulere anvendelsen af kunstig intelligens (AI) inden for EU. Formålet med lovgivningen er at etablere klare retningslinjer og standarder for udvikling, implementering og anvendelse af AI-systemer.  
 
Formålet med AI Act 
AI Act har til formål at etablere en fælles juridisk ramme for både udviklingen og anvendelsen af AI-teknologier. Lovgivningen er designet til at adressere de udfordringer, der er forbundet med AI, og samtidig sikre plads til innovation og vækst på bæredygtig og ansvarlig vis. Sammenfattende er formålet: 

  • Beskyttelse af grundlæggende rettigheder: AI Act sigter mod at sikre, at AI-systemer ikke krænker grundlæggende rettigheder som privatliv, ikke-diskrimination og ytringsfrihed.
  • Transparens og ansvarlighed: Lovgivningen kræver gennemsigtighed i AI-systemers beslutningsprocesser og etablerer ansvarsforhold mellem udviklere, operatører og brugere af AI. 
  • Markedsadgang og innovation: AI Act søger at lette markedsadgang for sikre og innovative AI-løsninger samtidig med at man sikrer en ensartet regulering på tværs af EU-medlemslandene. 
     

Hvem påvirkes af AI Act 
AI Act fastsætter præcise definitioner for de forskellige aktører, der er involveret i kunstig intelligens: udbydere, implementerer, importører, distributører og produktfabrikanter. Dette indebærer, at alle parter, der er engageret i udviklingen, anvendelsen, importen, distributionen eller produktionen af AI-modeller, vil kunne holdes ansvarlige.

På nationalt niveau er det op til de kompetente myndigheder for markedsovervågning at sikre, at AI-forordningen overholdes. Derudover har private aktører beføjelse til at angive klager til myndighederne, såfremt de identificerer AI-modeller, der ikke overholder reglerne i AI-forordningen. Desuden gælder AI-forordning også for udbydere og brugere af AI-systemer placeret uden for EU, hvis output produceret af systemet er tiltænkt brug inden for EU.  
 
AI Act opererer med en såkaldt risikobaseret tilgang, der kategoriserer AI-modeller afhængigt af risikoniveauet. Dette ud fra logikken om jo mere skade teknologien kan påføre samfundet ved sin anvendelse, desto mere restriktive regler vil blive pålagt systemet eller applikationen.  


Man skelner mellem følgende fire risikokategorier:  

Digitaliseringsstyrelsen skal håndhæve at reglerne overholdes 

Digitaliseringsstyrelsen er blevet udpeget til at varetage rollen som national koordinerende tilsynsmyndighed for EU's AI-forordning. 

Som led i regeringens digitaliseringsstrategi etablerer Digitaliseringsstyrelsen og Datatilsynet en regulatorisk sandkasse for AI, hvor virksomheder og myndigheder kan få adgang til relevant ekspertise og vejledning i AI-Act og GDPR , når de udvikler eller anvender AI-løsninger.

Lovens implementeringsfaser 

  • 1. august 2024: AI-Act træder i kraft og bliver formelt en del af EU's lovgivning. 
  • 2. august 2026: Reglerne begynder at blive brugt og skal følges i praksis, inklusive højrisiko AI-systemer. Dog vil der være undtagelser for visse bestemmelser i lovgivningen. 
  • Tidsplan for implementering:

  • Den 2. februar 2025 (6 måneder efter ikrafttrædelse)

    Forbud mod AI med uacceptabel risiko træder i kraft.

  • Den 2. august 2025 (12 måneder efter ikrafttrædelse)

    Forpligtelser for udbydere af generelle AI-modeller træder i kraft. Udbydere af generelle AI-modeller skal udarbejde og løbende opdatere teknisk dokumentation for deres AI-modeller. De skal give information til systemudbydere, der ønsker at integrere den generelle AI-model i deres systemer. Der skal implementeres en politik for overholdelse af EU-lovgivningen om ophavsret og relaterede rettigheder, og de skal offentliggøre en detaljeret oversigt over det indhold, der er brugt til træning af AI-modellen. Disse regler skal sikre, at udbydere af generelle AI-modeller opererer på en gennemsigtig måde, hvilket fremmer sikkerhed, ansvarlighed og overholdelse af juridiske standarder i hele EU.

  • Den 2. februar 2026 (18 måneder efter ikrafttrædelse)

    Kommissionen implementerer en lov om eftermarkeds overvågning. Disse regler skal sikre, at højrisiko AI-systemer bliver nøje overvåget for at identificere og afhjælpe potentielle problemer eller risici, som kan opstå efter, at de er taget i brug

  • Den 2. august 2026 (24 måneder efter ikrafttrædelse)

    Forpligtelser for højrisiko AI-systemer, inklusive systemer inden for biometrik, kritisk infrastruktur, uddannelse, beskæftigelse, adgang til essentielle offentlige tjenester, retshåndhævelse, immigration og administration af retfærdighed træder i kraft.

  • Inden udgangen af 2030

    Forpligtelser træder i kraft for visse AI-systemer, der er komponenter af de storskala informationssystemer etableret af EU-lovgivningen inden for frihed, sikkerhed og retfærdighed, såsom Schengen Informationssystemet.

Praktiske implikationer for virksomheder 
  • Konformitetskrav: Virksomheder, der udvikler eller anvender AI i EU, vil blive pålagt at overholde de krav, som AI Act opstiller. Dette inkluderer opfyldelse af standarder for gennemsigtighed, ansvarlighed og beskyttelse af grundlæggende rettigheder. 
  • Risikovurdering: Virksomheder skal udføre en grundig risikovurdering af deres AI-systemer for at identificere og håndtere potentielle risici for borgernes rettigheder og sikkerhed. 
  • Dataetik og beskyttelse: AI Act vil kræve, at virksomheder implementerer etisk databehandling og beskyttelse af persondata i overensstemmelse med eksisterende GDPR-regler. 
  • Sanktioner: Overtrædelser af AI Act kan medføre sanktioner, herunder bøder. Det er derfor vigtigt for virksomheder at forstå og overholde lovgivningen for at undgå juridiske konsekvenser. 

 

Denne artikel er udarbejdet med hjælp fra Bech-Bruun.

Relevante artikler & dokumenter

Vil du vide mere? Så kontakt

Teknologi, Digitalisering & Tele

Cecilie Fjeldberg

Politisk konsulent
Teknologi, Digitalisering & Tele

Frederikke Rosendal Egede Saabye

Fagchef for digitalisering