Hvordan navigere man AI-lovgivning?

Kunstig intelligens (AI) forvandler hurtigt industrier og samfund og medfører hidtil usete udviklinger og udfordringer. Efterhånden som AI-systemer bliver mere integrerede i den måde, vi driver forretning på og i hverdagen, er behovet for robust lovgivning til at styre udviklingen og brugen blevet højere.

De fleste lovrammer stræber efter at skabe balance mellem behovet for innovation og beskyttelsen af grundlæggende rettigheder og offentlig sikkerhed. Denne artikel undersøger den nuværende AI-lovgivning, dens konsekvenser og vejen frem.De fleste lovrammer stræber efter at skabe balance mellem behovet for innovation og beskyttelsen af grundlæggende rettigheder og offentlig sikkerhed. Denne artikel undersøger den nuværende AI-lovgivning, dens konsekvenser og vejen frem.

Øget AI-lovgivning

Den Europæiske Union (EU) har for nylig indført EU's AI Act. Denne omfattende rammes formål er, at AI-systemer er sikre, gennemskuelige og respekterer de grundlæggende rettigheder. Lande som USA og Kina, der er mere på forkant med AI-teknologien, har f.eks. været foran med lovgivningsmæssige rammer for at håndtere de unikke udfordringer, som AI medfører. Uanset hastigheden er der behov for at regulere AI-teknologilandskabet for både at fremme innovation og opbygge tillid.

En pålidelig vej fremad

Implementering af AI-lovgivning indebærer flere udfordringer. AI-udviklingens tempo kan overgå de lovgivningsmæssige rammers evne til at følge med. Derudover kræver det nøje overvejelser at balancere innovation og regulering for at undgå at forhindre teknologiske fremskridt. Men AI-lovgivning giver også betydelige muligheder. Ved at fastlægge klare retningslinjer og standarder kan lovgivning fremme innovation, øge offentlighedens tillid og sikre, at AI-systemer udvikles og bruges ansvarligt. Ved at prioritere sikkerhed, transperens og etiske overvejelser kan vi desuden udnytte AI's fulde potentiale og samtidig beskytte individets og samfundets interesser.

Suppleret af internationale standarder

Lovgivningen suppleres af internationale standarder som ISO/IEC 42001. Denne certificerbare standard indeholder krav til implementering af et AI-ledelsessystem og omfatter geografiske grænser. Selvom det ikke er en lovgivning i sig selv, forventes ISO/IEC 42001 at spille en vigtig rolle i at fremme troværdig AI ved at etablere best practice for styring af AI. Den er designet til at sikre sikker, pålidelig og etisk udvikling, implementering og brug af AI, og den nævnes i lovgivningen som et værdifuldt værktøj til at sikre, at de rette processer for styring er på plads.

Kerneelementer i AI-lovgivning

AI-lovgivning omfatter typisk adskillige kerneelementer:

  1. Sikkerhed og pålidelighed: Det er altafgørende, at AI-systemer fungerer sikkert og pålideligt. Lovgivningen indeholder ofte krav om risikostyring, test og validering for at forhindre skader på enkeltpersoner og samfundet.
  2. Transparens og ansvarlighed: Transparens i AI-beslutningsprocesser er afgørende for at opbygge tillid. Lovgivningen kræver, at AI-udviklere giver klare forklaringer på, hvordan deres systemer fungerer, og etablerer procedurer for ansvarlighed.
  3. Etiske overvejelser: Etiske principper som retfærdighed, undgå diskrimination og respekt for privatlivets fred er en integreret del af AI-lovgivningen. Disse principper styrer udviklingen og implementeringen af AI-systemer for at sikre, at de er i overensstemmelse med samfundets værdier.
  4. Overholdelse og håndhævelse: Effektive kontrolmekanismer er afgørende for at sikre, at AI-lovgivningen overholdes. Tilsynsorganer har til opgave at overvåge AI-systemer, gennemføre audits og pålægge sanktioner for manglende overholdelse.

Europa: EU AI Act

EU har taget et væsentligt skridt i reguleringen af AI. EU's AI Act formål er, at systemerne er sikre, transparente og respekterer de grundlæggende rettigheder, samtidig med at de fremmer innovation. Den blev offentliggjort den 12. juli 2024 og trådte i kraft den 1. august 2024. Dens bestemmelser vil gradvist blive implementeret med forpligtelser om forbudt praksis fra d. 2. februar 2025 og krav til højrisiko-AI-systemer fra d. 2. august 2026.

EU's AI Act kategoriserer AI-systemer ud fra deres risikoniveau:

  • Uacceptabelt, f.eks. social scoring er forbudt..
  • Højrisiko, f.eks. rekruttering eller medicinsk udstyr er tilladt med forbehold for krav og overensstemmelsesvurderinger.
  • ”Transparent” risiko, f.eks. chatbots eller deep fakes er tilladt med forbehold for informations-/transparensforpligtelser.
  • Minimal eller ingen risiko er tilladt uden begrænsninger.

AI-systemer med uacceptabel risiko, som f.eks. dem, der manipulerer menneskelig adfærd eller udnytter sårbarheder, er forbudt. AI-systemer med høj risiko, som omfatter applikationer i kritisk infrastruktur, uddannelse og beskæftigelse, skal gennemgå strenge overensstemmelsesvurderinger, før de tages i brug.

EU's AI Act stiller også krav om transparens og ansvarlighed. AI-udviklere skal give klare oplysninger om, hvordan deres systemer fungerer og sikre, at de kan auditeres. Dette omfatter vedligeholdelse af detaljeret dokumentation og logfiler for at facilitere tilsyn og overholdelse. Det gælder også for virksomheder, der driver eller sælger AI-produkter i EU. Eksporterende virksomheder skal sikre, at deres AI-systemer opfylder de specificerede standarder og underlægges de nødvendige vurderinger.

AI-lovgivning i USA

USA har en lidt anden tilgang end EU, og anerkendte tidligt behovet for omfattende lovgivning til styring af udvikling og brug. Det har resulteret i flere lovforslag på føderalt og i delstaterne, og der blev fremsat over 40 lovforslag i 2023. Lovgivningslandskabet i USA er ret komplekst, men afspejler i høj grad det voksende behov for at balancere innovation med sikkerhedsforanstaltninger for at beskytte enkeltpersoner og samfundet mod AI-risici.

Der er nogle vigtige stykker lovgivning og reguleringstiltag, der former AI-landskabet i USA. Oplægget til AI Bill of Rights, der blev udgivet i oktober 2022, skitserer principper for at beskytte enkeltpersoner mod de potentielle skader ved AI. Den fokuserer på rettigheder som privatlivets fred, beskyttelse mod algoritmisk diskrimination og sikring af transparens. Den omfattende bekendtgørelse om AI, der blev underskrevet af præsident Joe Biden i 2023, understregede behovet for sikker og pålidelig AI. Den giver også føderale myndigheder mandat til at vedtage foranstaltninger, der sikrer, at AI-systemer udvikles og bruges ansvarligt. Der er nogle få love, der har til formål at fremme innovation på sikre, pålidelige, etiske og transparente måder, såsom National AI Initiative Act of 2020 og Future of AI Innovation Act. I maj 2024 blev den banebrydende Colorado AI ACT underskrevet. Den omfatter en tværgående lov om styring af AI, der dækker den offentlige sektor. Forskellige kongreslove er under udvikling, som den nyligt foreslåede SB 1047 California AI Safety bill, der har til formål at regulere den mest kraftfulde AI-model yderligere.

Kinesisk AI-lovgivning

Kina har indtil videre ikke udgivet en omfattende lov om AI, men har offentliggjort regler om AI-applikationer. Men i modsætning til EU, hvor EU's AI Act fungerer som et overordnet regelsæt for alle AI-systemer, har Kina valgt en vertikal tilgang til at regulere visse AI-tjenester.

Med et ambitiøst mål om at blive verdens førende inden for AI-udvikling og -anvendelse offentliggjorde regeringen i Beijing ”New Generation AI Development Plan” i 2017, som er den første systemiske og strategiske plan på AI-området. Den førte til en markant vækst i industriaktiviteter og politisk støtte til AI-udvikling.

Fem primære kategorier udgør det kinesiske AI-styringslandskab:

  1. Politikker og strategier for styring. Beijing har udgivet en række principper, planer, vejledninger og udtalelser om AI-teknologier på nationalt niveau. Disse danner grundlag for AI-lovgivning. For eksempel har statsrådet udgivet "Holdninger til styrkelse af den etiske regering i videnskab og teknologi", som udtrykker Beijings tanker om etiske principper for AI-teknologier.
  2. Lovgivning. Nogle af de eksisterende love omhandler visse aspekter af udvikling, levering, implementering og brug af AI-systemer, som har en betydelig indvirkning på AI-lovgivningen. Blandt disse fremhæves tre love, nemlig "Loven om beskyttelse af personlige oplysninger", "Loven om datasikkerhed" og "Loven om cybersikkerhed".
  3. Administrative bestemmelser. Nogle administrative bestemmelser skaber konkrete krav til AI-algoritmer, når de bruges i internetinformationstjenester såsom "deep synthesis content", "anbefalingssystem" og "generativt AI-system".
  4. Kommunale regler. Nogle byer i Kina (Shanghai og Shenzhen) har også udgivet kommunale regler om indholdsagnostisk AI, som skal fremme udviklingen af AI-industrien. Begge regler kræver, at risici der introduceres af AI, skal kontrolleres effektivt, med mere omfattende kontrol af AI-produkter og -tjenester med høj risiko end af dem, der indebærer mindre risiko..
  5. Nationale standarder. For at understøtte reguleringen af AI-systemet leder China Electronics Standardization Institute udviklingen af en række anbefalede standarder, der dækker flere aspekter af AI-teknologier.

Indflydelse på virksomheder

Lovgivningslandskabet i hele verden er ret omfattende og tilføjer en grad af kompleksitet, som skal håndteres af virksomheder, uanset om de opererer i en bestemt geografi eller internt. Fælles for de fleste er, at de offentlige institutioner ønsker at tage fat på både de muligheder og udfordringer, som AI-teknologierne giver.

Grundlæggende er det hensigten om at fremme innovation, ansvarlig udvikling og brug af kunstig intelligens for at sikre, at den er til gavn for samfundet, samtidig med at den beskytter mod potentielle risici. I takt med at AI-teknologien fortsætter med at udvikle sig hurtigt, vil tilsynsmyndighederne forsøge at følge med, og det samme skal virksomhederne for at overholde reglerne.

For at styre og sikre robust styring kan virksomheder med fordel implementere et ledelsessystem for kunstig intelligens (AIMS) i overensstemmelse med ISO/IEC 42001 kombineret med ledelsessystemer rettet mod informationssikkerhed (ISO/IEC 27001) eller privatlivets fred (ISO/IEC 27701). Det giver en struktureret tilgang til risikostyring, herunder overholdelse af lovgivningen, og etablerer praksis for løbende forbedringer. Det muliggør også certificering af en uafhængig tredjepart som DNV, hvilket kan være med til at sikre sikre, pålidelige og etiske AI-systemer, understøtte overholdelse af lovgivningen og skabe tillid.

Self-Assessment og ISO/IEC 42001-certificering

Self-assessment suite

Self-assessment suite

DNV's online selvevalueringssuite hjælper med at måle din egen forståelse af en valgt standard.