Højrisiko AI-systemer
Der er uenighed mellem parterne om, hvilke områder og brugsscenarier (opregnet i forordningens bilag III) der bør kategoriseres som “højrisiko”, samt hvor bredt eller specifikt højrisikoscenarierne på de forskellige områder skal defineres.
Parlamentet har i sit udkast udvidet listen over højrisiko AI-systemer i bilag III til også at omfatte AI-systemer anvendt til biometrisk identifikation af individer (f.eks. ansigtsgenkendelse) og AI-systemer anvendt til at udlede personlige karakteristika af individer (make inferences) ud fra biometri eller biometriske data, herunder følelsesgenkendelsessystemer (emotion recognition).
Derudover er der i EP-udkastet sket præciseringer i bl.a. kategorierne kritisk infrastruktur, beskæftigelse og uddannelse, så det er tydeligere, hvad kategorierne omfatter.
En anden væsentlig ændring i EP-udkastet er, at AI-systemerne, der er oplistet bilag III, efter artikel 6, stk. 2, kun vil blive anset for højrisiko, hvis de udgør en "significant risk to health, safety and fundamental rights".
Dette står i modsætning til Kommissionens forslag, hvor områderne og brugsscenarierne i bilag III automatisk blev kvalificeret som højrisiko.
Nye pligter til udbydere af foundation models og generativ AI såsom ChatGPT
En meget markant nyskabelse er, at EP-udkastet rummer definitioner og regler for omsætning og brug af “foundation models” og “generative AI”, f.eks. ChatGPT, GPT-4, Bard og andre Large Language Models mv.
Foundation models defineres i artikel 3, nr. 1 c som ”an AI model that is trained on broad data at scale, is designed for generality of output, and can be adapted to a wide range of distinctive tasks”.
I udkastets artikel 28 b er der fastsat en lang række nye forpligtelser for udbydere af foundation models, herunder bl.a. pligt til at sikre en robust beskyttelse af fundamentale rettigheder, sundhed, sikkerhed, miljøet, demokratiet og retssikkerhed. Det skal bl.a. ske gennem pligt til at identificere og håndtere de risici, som modellen frembyder, overholde visse design-, informations- og miljøkrav samt registrere modellen i en EU-database.
Udbydere af foundation models til brug for generativ AI – forstået som ”AI systems specifically intended to generate, with varying levels of autonomy, content such as complex text, images, audio, or video” – skal efter udkastets artikel 28 b, stk. 4, desuden:
- gøre det transparent, at indholdet er skabt af en computer og ikke af et menneske
- træne, designe og udvikle foundation-modellen til at forhindre skabelsen af ulovligt indhold
- dokumentere og offentliggøre et tilstrækkeligt detaljeret overblik (”summary”) over brugen af træningsdata, der er beskyttet af ophavsret