Blog

EU AI ACT

AI Act: Hvad betyder EU's AI-forordning for jeres virksomhed?

AI Act er EU’s første samlede lovgivning, der regulerer brugen af kunstig intelligens. Med AI-forordning bliver anvendelsen af AI ikke længere kun er et teknisk anliggende, men et strategisk ledelsesansvar. For virksomheder betyder EU’s AI-lov nye bindende krav til, hvordan AI-systemer designes, implementeres og overvåges.

Hvad er AI Act?

AI Act er en EU-forordning, der regulerer udvikling, markedsføring og anvendelse af AI-systemer. Formålet er at sikre, at kunstlig intelligens anvendes på en måde, der er sikker, transparent og i overensstemmelse med grundlæggende rettigheder.

AI Act trådte i kraft i 2024, og kravene indfases gradvist frem mod 2025 til 2027. Det giver virksomheder et begrænset vindue til at etablere den nødvendige governance, dokumentation og risikostyring. AI Act gælder både for virksomheder, der udvikler AI-systemer, og for virksomheder, der implementerer og anvender dem i deres forretning. For organisationer, der arbejder struktureret og rettidigt med AI Act, er der ikke kun tale om compliance, men om strategisk positionering.

Kernen i AI Act er en risikobaseret tilgang. Kravene afhænger af, hvilken betydning et AI-system kan få for mennesker og samfund. Jo højere risiko, desto strengere krav.

 

Den risikobaserede tilgang i AI Act

For mange virksomheder vil det første afgørende skridt under AI Act være at identificere og klassificere deres eksisterende AI-systemer korrekt.

 

 

AI systemer med høj risiko omfatter løsninger, der kan få væsentlig betydning for mennesker og samfund. Det gælder eksempelvis systemer til rekruttering, kreditvurdering, sundhed, uddannelse eller compliance. Her stilles der klare krav til dokumentation, datakvalitet, risikostyring og menneskelig kontrol.

AI med begrænset risiko er underlagt krav om transparens. Brugere skal tydeligt informeres, når de interagerer med AI-system, herunder generativ AI. 

Lavrisiko-AI kan fortsat anvendes uden særlige regulatoriske krav, men ansvarlig anvendelse bør være en integreret del af organisationens praksis. 

Et centralt fokus i AI Act er gennemsigtighed og ansvarlighed. Organisationer skal kunne redegøre for, hvordan deres AI-løsninger fungerer, hvilke data der anvendes, og hvordan risici identificeres og håndteres. Der skal være klare roller og menneskelig kontrol, så væsentlige beslutninger ikke overlades ukritisk og blindt til automatiserede systemer. 

For organisationer, der går struktureret til værks, er der en klar strategisk mulighed.  En tidlig og moden tilgang til ansvarlig AI kan: 

  • styrke tilliden hos kunder, medarbejdere og samarbejdspartnere 
  • reducere forretningsmæssig og omdømmenæssige risici 
  • gøre det lettere at skalere AI-løsninger sikkert og kontrolleret 
  • skabe klarhed for ledelse og bestyrelse 
  • understøtte innovation uden at bremse forretningen 

Kort sagt står organisationer, der arbejder systematisk med etisk og ansvarlig AI, stærkere både regulatorisk og kommercielt.

 

Hvad betyder det for jeres forretning 

AI Act introducerer bindende krav på tværs af hele AI-livscyklussen. Fra design og udvikling til implementering og løbende overvågning efter idriftsættelse stilles der krav om operationel modenhed.

Det omfatter blandt andet systematisk risikostyring, dokumentation for datakvalitet og sporbarhed, transparens over for brugere og etablering af effektiv menneskelig overvågning. Derudover skal organisationer sikre løbende monitorering og håndtering af fejl eller uforudsete konsekvenser.

AI Act kræver organisatorisk modenhed. Roller og ansvar skal være tydeligt defineret. Ledelsen skal have indsigt i, hvor og hvordan AI anvendes. Bestyrelsen må forholde sig til de risici og muligheder, som AI medfører. Manglende compliance med AI Act kan føre til betydelige sanktioner, men den største risiko er ofte tab af tillid og omdømme.

Organisationer med et stærkt etisk og governance-mæssigt fundament er bedre rustet til at imødekomme disse krav effektivt og konsekvent. Compliance bør ikke ses som en isoleret juridisk øvelse, men som en integreret del af virksomhedens samlede styring og risikohåndtering.

AI kan transformere enhver branche. Beslutninger om anvendelse af AI vedrører virksomhedens samlede risikoprofil, governance-struktur og etiske fundament.

Virksomheder, der arbejder proaktivt med at have overblik over anvendte AI-systemer, klare processer for godkendelse og implementering samt løbende kontrol, opnår flere fordele. De styrker tilliden hos kunder og samarbejdspartnere og reducerer regulatorisk og forretningsmæssig risiko. De skaber et solidt fundament for at skalere AI-løsninger sikkert og ansvarligt og skaber klarhed i ledelsesrummet.

Næste skridt i arbejdet med AI Act

Det første skridt mod AI Act-compliance er at skabe overblik. Hvilke AI-systemer anvendes i organisationen? Hvilke risiko-kategorien falder de ind? Hvor er dokumentationen utilstrækkelig? Herefter bør governance-strukturer, risikovurderinger og kontrolmekanismer etableres systematisk og forankres i ledelsen.

AI Act ændrer rammerne for anvendelsen af kunstig intelligens i Europa. Organisationer, der arbejder struktureret med AI, står stærkere både regulatorisk og kommercielt.

Uanset om jeres organisation allerede anvender AI-systemer eller planlægger kommende initiativer, hjælper vi jer med at sikre regulatorisk compliance, etisk integritet og strategisk sammenhæng – uden at bremse innovation.

Farnaz Aref