AI Sikkerhed
Guide til danske virksomheder
En analytisk gennemgang af AI-specifikke sikkerhedsrisici, forskelle fra traditionel IT-sikkerhed og sikkerhedskrav under EU AI Act.
AI er ikke blot software
AI er i dag integreret i forretningskritiske processer på tværs af danske virksomheder. Det gælder alt fra kreditvurdering og rekruttering til produktionsoptimering og kundeservice. Alligevel behandles AI ofte som en traditionel IT-komponent, der kan implementeres og sikres med kendte kontroller. Det er en fejlvurdering.
AI-systemer er ikke blot software. De er probabilistiske beslutningsmotorer, der lærer af data og kontinuerligt påvirkes af deres omgivelser. Det betyder, at risikobilledet er dynamisk. Når modellen ændrer adfærd, ændrer trusselslandskabet sig med den.
I virksomheden er AI sikkerhed ikke blot en teknisk disciplin, men et område der kræver samspil mellem cybersikkerhed, jura, databeskyttelse og forretningsledelse.
Hvad AI-sikkerhed reelt indebærer
AI-sikkerhed handler ikke kun om at beskytte infrastrukturen omkring modellen. Det handler om at beskytte selve modellens integritet, dens beslutningslogik og dens påvirkning af mennesker og samfund.
Hvor klassisk cybersikkerhed fokuserer på fortrolighed, integritet og tilgængelighed, udvider AI-sikkerhed disse principper til også at omfatte robusthed, gennemsigtighed og fairness. Et AI-system kan være teknisk sikkert og samtidig operere på et diskriminerende eller uigennemsigtigt grundlag, hvilket er utilstrækkeligt ift. at leve op til AI-lovgivningen.
I praksis betyder det, at sikkerhed ikke kan isoleres til IT-afdelingen. AI-sikkerhed forudsætter governance-strukturer, der sikrer dokumentation, test, monitorering og menneskelig kontrol.
Oversigt over AI-specifikke sikkerhedsrisici
AI introducerer et trusselsbillede, der på flere punkter adskiller sig markant fra traditionelle systemer.
1.Dataforgiftning og manipulerede træningsdatasæt
AI-modeller er afhængige af datakvalitet. Hvis træningsdata kompromitteres, kompromitteres modellen. Dataforgiftning kan ske bevidst gennem målrettet manipulation eller indirekte via utilstrækkelig datastyring. Konsekvensen er ikke blot en fejl i et system, men potentielt systematiske skævheder, der påvirker tusindvis af beslutninger. Det kan være i kreditmodeller, HR-screening eller medicinsk diagnostik. Problemet opdages ofte sent, fordi fejlen er indlejret i modellens læring.
2.Adversarial attacks og modelmanipulation
Adversarial attacks udnytter modellens matematiske struktur ved at ændre input marginalt, så output ændres dramatisk. Disse angreb demonstrerer, at selv avancerede modeller kan være skrøbelige. For danske virksomheder betyder det, at AI-løsninger i for eksempel identitetsverifikation eller svindeldetektion kan manipuleres uden at kompromittere selve infrastrukturen. Angrebet sker i modellens beslutningsrum, ikke i netværket.
3.Prompt injection og generative systemer
Med udbredelsen af generativ AI opstår nye angrebsflader. Prompt injection kan få en model til at tilsidesætte interne instruktioner eller eksponere følsomme oplysninger. I organisationer, hvor generative modeller integreres med interne databaser, kan dette skabe utilsigtede datalæk. Risikoen ligger ikke nødvendigvis i ond vilje, men i modellens manglende evne til at skelne mellem legitim og manipulerende kontekst.
4.Bias, diskrimination og systemisk skævhed
Bias er ikke blot et etisk problem. Det er en regulatorisk og juridisk risiko. Hvis et AI-system systematisk diskriminerer, kan virksomheden holdes ansvarlig, uanset om bias opstod utilsigtet. Her bevæger vi os fra teknisk sikkerhed til et samfundsmæssigt ansvar. Det er netop i dette krydsfelt, at AI-sikkerhed adskiller sig fundamentalt fra klassisk IT-sikkerhed.
Hvordan AI-sikkerhed adskiller sig fra traditionel IT-sikkerhed
Forskellen ligger i systemernes natur:
Statisk kode vs. adaptive modeller
Traditionelle systemer følger foruddefinerede regler. AI-modeller lærer mønstre og justerer deres interne parametre. Det betyder, at sikkerheden løbende skal opretholdes og tilpasses. Monitorering bliver derfor en central kontrolmekanisme. Ikke blot for performance, men for adfærdsændringer.
Black box-problematikken
Mange avancerede modeller er vanskelige at forklare. Når en beslutning ikke kan redegøres for, opstår et ansvarsmæssigt vakuum. Det er her, at governance bliver en sikkerhedskontrol i sig selv. Gennemsigtighed og mulighed for forklaring er regulatoriske krav.
Governance som sikkerhedskontrol
AI-sikkerhed kræver dokumentation for datasæt, træningsmetoder, testprotokoller og risikovurderinger. Denne dokumentation er ikke en administrativ formalitet men beviset på, at systemet opererer ansvarligt.
Sikkerhedskrav under EU AI Act
EU AI Act etablerer en risikobaseret regulering, som danske virksomheder skal forholde sig til. Den officielle reguleringsramme kan findes hos EU-Kommissionen:
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
Systemer klassificeres fra minimal til høj risiko. Mange erhvervsanvendelser, herunder HR, kreditvurdering og kritisk infrastruktur, vil falde i højrisiko-gruppen.
Krav til højrisiko-AI
For højrisikosystemer kræves dokumenteret risikostyring, datastrukturkontrol, robusthedstest og menneskelig overvågning. Dette indebærer organisatoriske ændringer, ikke blot tekniske justeringer.
Datasikkerhed, robusthed og overvågning
Systemer skal designes med robusthed for øje. Det indebærer test mod manipulation, logging af beslutninger og mekanismer til at opdage afvigelser.
Sanktioner og ledelsesansvar
Bøder kan nå op til seks procent af global omsætning. Men den reelle risiko er tab af tillid og markedsposition. AI-compliance er derfor en strategisk nødvendighed.
Strategiske implikationer for danske virksomheder
AI bør behandles som kritisk infrastruktur. Det kræver ledelsesforankring, klare ansvarsplaceringer og integration i virksomhedens samlede risikostyring.
Virksomheder, der reducerer AI-sikkerhed til et teknisk projekt, undervurderer kompleksiteten.
Farnaz Aref