Bild:

Anna-Mari Wallenberg, docent i kognitionsvetenskap, universitetslektor

Varje månad intervjuar vi beslutsfattare och experter om aktuella EU-frågor.

Månadens fråga 17.9.2024

Månadens fråga: Vilka spelregler har EU för användningen av AI?

Användningen av artificiell intelligens, eller AI, är förknippad med många möjligheter men också vissa risker. EU:s nya förordning om artificiell intelligens trädde i kraft den 1 augusti 2024. Vi frågade Anna-Mari Wallenberg, som är docent i kognitionsvetenskap vid Helsingfors universitet, vilka spelregler EU har för användningen av AI.

Syftet med förordningen om artificiell intelligens är att göra EU till ett område där det är tryggt att tillverka, importera och använda AI-programvaror och där allt detta görs med respekt för människors grundläggande rättigheter. Förordningen reglerar framför allt användningen av komplexa AI-system som ofta baserar sig på maskininlärning och djupinlärning, det vill säga mer kompetenta och självständiga system. Andra programvaror, till exempel mekaniska, automatiserade eller robotiserade, omfattas i regel inte av bestämmelserna.

Förordningen om artificiell intelligens påverkar vardagen i och med att den helt förbjuder vissa former av AI-användning, ålägger tillverkare och användare av AI-system att på förhand utreda riskerna med systemen samt ökar transparensen i användningen av AI.

Förordningen är produktsäkerhetslagstiftning. Det innebär att enskilda slutanvändare inte åläggs några skyldigheter, till exempel lagstadgade åldersgränser, och att de inte behöver tillstånd som beviljats av myndigheter, exempelvis som i fråga om körrätt eller vapentillstånd. Däremot behandlas AI-system som programvaror vars säkerhet går att bedöma utifrån de risker som är förknippade med användningen, på samma sätt som man bedömer exempelvis läkemedels eller leksakers säkerhet.

Riskerna med användningen av AI är risker med avseende på de grundläggande rättigheterna, eftersom användningen till exempel kan leda till diskriminering, äventyra den fysiska eller psykiska integriteten eller försvaga integritetsskyddet.

Användning som hotar de grundläggande rättigheterna förbjuds

Enligt EU utgör en del av de avsedda användningsändamålen för AI en allvarlig risk med tanke på de grundläggande rättigheterna. Sådana användningsändamål är i fortsättningen förbjudna inom hela EU. Det betyder att man i framtiden inte får använda AI till exempel för så kallad social poängsättning eller manipulering av personer i utsatt ställning. Även användningen av AI för övervakning begränsas på offentliga platser. Det är till exempel inte tillåtet att använda ansiktsigenkänning för att i skolor följa elevernas känslotillstånd. Biometrisk fjärridentifiering i realtid på allmänna platser i brottsbekämpande syfte är också i regel förbjuden, om det inte finns särskilda grunder för den bland annat på grund av hot om terrorism.

Artificial Intelligence Content Generator. A man uses a laptop to interact with AI assistant. AI offers functions like chatbot, generate images, write code, writer bot, translate and advertising.
Förordningen är produktsäkerhetslagstiftning. Det innebär att enskilda slutanvändare inte åläggs några skyldigheter, till exempel lagstadgade åldersgränser, och att de inte behöver tillstånd som beviljats av myndigheter, exempelvis som i fråga om körrätt eller vapentillstånd. Bild: Adobe Stock

Riskerna med AI beror på användningssätt och användningsområde

Förordningen om artificiell intelligens förbjuder endast en handfull användningsändamål. I övriga fall är det tillåtet att använda AI. Förordningen ställer dock krav på användningen av AI-system med hög risk. Graden av risk är beroende av systemets användningssätt och användningsområde.

Användningssättet innebär en hög risk när AI har en central roll i beslutsfattandet och den fungerar inom ett användningsområde med hög risk och oberoende av mänsklig kontroll. Om AI-systemet används endast för förberedande uppgifter, om dess inverkan på slutresultatet är liten eller om det används för att förbättra resultatet av mänskligt arbete, innebär användningen inte en hög risk.

Med användningsområden avses områden som redan omfattas av produktsäkerhetslagstiftningen i EU (bl.a. leksaker, maskiner) samt områden som räknas upp i bilagan till förordningen och som anses innebära betydande risker med avseende på de grundläggande rättigheterna.

Användningsområden med hög risk finns inom olika branscher. Som exempel på användning med hög risk kan nämnas prioritering av vårdbehov inom hälso- och sjukvården, beviljande av sociala förmåner, bedömning av studieprestationer eller antagning av studerande.

Som användning med hög risk i arbetslivet ses bland annat rekrytering, bedömning av arbetsprestationen och fördelning av arbetsuppgifter. Inom finans-, bank- och försäkringsbranscherna klassificeras utvärdering av kreditvärdighet och riskbedömning i samband med livförsäkring och sjukförsäkring som användning med hög risk. Även användning som hänför sig till migration, brottsbekämpning och rättskipning samt system för valpåverkan finns med i förteckningen över användningsområden med hög risk.

Skyldigheter för leverantörer och användare av AI-system med hög risk

Förordningen om artificiell intelligens förpliktar leverantörer och användare av AI-system med hög risk att på förhand bedöma vilka konsekvenser och risker användningen medför för de grundläggande rättigheterna. Den förutsätter dessutom att man på förhand tänker ut hur man ska gå till väga om riskerna realiseras.
I praktiken ska tillverkarna bland annat informera användarna om vissa tekniska uppgifter och föra in grundläggande uppgifter om system med hög risk i en offentlig databas som förvaltas av kommissionen. Dessutom ska till exempel ämbetsverk och skolor som använder AI-system med hög risk för att sköta offentliga uppgifter göra en särskild riskbedömning för att närmare kartlägga vilka konsekvenser användningen av systemet har för de mänskliga rättigheterna.

Med sikte på en trygg och transparent AI-användning?

Syftet med bestämmelserna om användning med hög risk är att garantera att AI används i EU på ett säkert sätt och med respekt för de mänskliga rättigheterna. Avsikten är att människor inte ska behöva vara rädda för att bli diskriminerade eller skadade av AI-system.

Dessutom förpliktar förordningen att tydligt informera om användningen av AI. Till exempel en person som är föremål för ett myndighetsbeslut som fattats med hjälp av algoritmer garanteras rätt att få en tydlig redogörelse för de skeden i beslutsfattandet som gällt honom eller henne. Förordningen förpliktar också att informera användarna om en tjänst produceras med hjälp av AI.

Modeller med systemrisker är fortfarande ett frågetecken

De största frågetecknen vid bedömningen av konsekvenserna av den nya förordningen har att göra med bestämmelserna om så kallade AI-system för allmänna ändamål. Till förordningen fogades i slutskedet av beredningen bestämmelser som gäller system såsom GPT4, som är mycket effektiva och som har tränats med ett massivt material och lämpar sig därför för flera användningsändamål.

Syftet med bestämmelserna är att förebygga i synnerhet eventuella systemrisker på samhällsnivå. Förordningen förpliktar tillverkare av så kallade modeller med systemrisker (systemic risk) att redogöra för principerna för sina system, öppna upp data som används för att träna systemen och lämna ut uppgifter om testning av systemen. Det råder dock viss oklarhet kring detaljerna i regleringen, och till exempel praxis som gäller AI-system för allmänna ändamål är ännu under beredning.

 

Anna-Mari Wallenberg
docent i kognitionsvetenskap, universitetslektor
Avdelningen för digital humaniora
Helsingfors universitet

Det nationella genomförandet av EU:s förordning om artificiell intelligens samordnas av arbets- och näringsministeriet.
Mer information om genomförandet: https://tem.fi/sv/-/det-nationella-genomforandet-av-eu-s-ai-forordning-om-artificiell-har-inletts