Kuva:

Anna-Mari Wallenberg, kognitiotieteen dosentti, yliopistonlehtori

Kysymme kuukausittain ajankohtaisista EU-asioista päättäjiltä ja asiantuntijoilta.

Kuukauden kysymys 17.9.2024

Kuukauden kysymys: Millaisia pelisääntöjä EU asettaa tekoälyn käytölle?

Tekoälyn hyödyntämiseen liittyy monia mahdollisuuksia mutta myös riskejä. EU:n uusi tekoälysäädös astui voimaan 1. elokuuta 2024. Kysyimme kognitiotieteen dosentti Anna-Mari Wallenbergiltä Helsingin yliopistosta, mitä pelisääntöjä EU asettaa tekoälyn käytölle.

Tekoälysäädöksen avulla pyritään luomaan Euroopan unionista alue, jossa tekoälyohjelmistojen valmistaminen, maahantuonti, ja hyödyntäminen olisi turvallista ja kunnioittaisi ihmisten perusoikeuksia. Lailla säädellään lähinnä monimutkaisten, usein koneoppimiseen ja syväoppiviin verkkoihin perustuvien, ns. kyvykkäämpien itsenäisesti oppivien tekoälyjärjestelmien käyttöä. Muut ohjelmistot, kuten mekaaninen, ei-oppiva automaatio tai ohjelmistorobotiikka, jäävät pääsääntöisesti sääntelyn ulkopuolelle.
Tekoälysäädös vaikuttaa arkeen kieltämällä jatkossa tietyt tekoälyn käyttömuodot kokonaan, velvoittamalla valmistajat ja hyödyntäjät selvittämään ennalta tiettyjen järjestelmien käyttöön liittyviä riskejä sekä lisäämällä tekoälyn käyttöön läpinäkyvyyttä.

Tekoälysäädös on tuoteturvallisuussääntelyä. Se tarkoittaa, että yksittäisille loppukäyttäjille ei aseteta velvoitteita, kuten lakisääteisiä ikärajoja, tai edellytetä viranomaisten myöntämiä lupia, kuten ajo-oikeuden ja aselupien kohdalla. Sen sijaan tekoälyjärjestelmiä käsitellään ohjelmistotuotteina, joiden turvallisuutta voidaan arvioida käyttöön liittyvien riskien näkökulmasta samaan tapaan kuin esimerkiksi lääkkeiden tai lelujen turvallisuutta arvioidaan.

Tekoälyn käyttöön liittyvät riskit ovat perusoikeusriskejä. Niitä ovat esimerkiksi tekoälyn käytöstä aiheutuva syrjintä, fyysisen tai psyykkisen koskemattomuuden vaarantuminen tai yksityisyydensuojan heikkeneminen.

Perusoikeuksia uhkaavat tekoälyn käyttötarkoitukset kielletään

EU:n mukaan osa tekoälyn aiotuista käyttötarkoituksista muodostaa vakavan riskin perusoikeuksille. Ne ovat jatkossa kiellettyjä EU:n alueella. EU:ssa ei siis voi tulevaisuudessa käyttää tekoälyä esimerkiksi ns. sosiaaliseen pisteytykseen tai haavoittuvassa asemassa olevan henkilön manipuloimiseen. Myös tekoälyn käyttöä valvontaan rajoitetaan julkisilla paikoilla. Kouluissa ei esimerkiksi voi käyttää kasvontunnistusta oppilaiden tunnetilojen tarkkailuun. Biometrinen reaaliaikainen etätunnistaminen lainvalvontatarkoituksissa julkisilla paikoilla on myös jatkossa pääsääntöisesti kielletty, jollei sille ole erikseen mainittuja perusteita (mm. terrorismiuhka).

Artificial Intelligence Content Generator. A man uses a laptop to interact with AI assistant. AI offers functions like chatbot, generate images, write code, writer bot, translate and advertising.
Tekoälysäädös on tuoteturvallisuussääntelyä. Se tarkoittaa, että yksittäisille loppukäyttäjille ei aseteta velvoitteita, kuten lakisääteisiä ikärajoja, tai edellytetä viranomaisten myöntämiä lupia, kuten ajo-oikeuden ja aselupien kohdalla. Kuva: Adobe Stock

Tekoälyn riskit riippuvat käyttötavasta ja käyttöalueesta

Tekoälysäädös kieltää vain kourallisen käyttötarkoituksia. Muissa tapauksissa tekoälyn käyttö on sallittu. Säädös kuitenkin asettaa suuririskisille tekoälyjärjestelmien käyttömuodoille edellytyksiä. Suuririskisyys riippuu järjestelmän käyttötavasta sekä käyttöalueesta.

Käyttötapa on suuririskinen silloin, kun tekoälyn rooli on keskeinen päätöksenteossa, ja se toimii pitkälti ihmisen kontrollista riippumattomana suuririskisella käyttöalueella. Jos tekoälyjärjestelmää käytetään vain valmistelevaan tehtävään, sen vaikutus lopputulokseen on vähäinen tai sitä käytetään ihmisen aikaansaannoksen parantamiseen, järjestelmän käyttö ei säädöksen mukaan ole suuririskistä.

Käyttöalueita puolestaan ovat alat, joihin jo kohdistuu EU:ssa tuoteturvasääntelyä (mm. lelut, koneet) sekä säädöksen liitteessä erikseen luetellut, perusoikeusriskien näkökulmasta merkittäviksi nähdyt käyttöalueet.
Suuririskisiksi määriteltyjä tekoälyn käyttötarkoituksia löytyy eri aloilta. Esimerkkejä suuren riskin käyttötarkoituksista ovat muun muassa terveydenhuollon hoitotarpeen priorisointi, sosiaalietuuksien myöntäminen, opintosuoritusten arviointi tai opiskelijavalinnat.

Työelämässä korkeariskiksi on arvioitu muun muassa tekoälyn avulla tapahtuva rekrytointi, työsuorituksen arviointi ja tehtävien jakaminen työntekijöille. Finanssi-, pankki- ja vakuutusaloilla luottokelpoisuuden arviointi sekä sairaus- ja henkivakuutuksiin liittyvä riskiarviointi luokitellaan säädöksessä myös korkeariskisiksi. Myös monet maahanmuuttoon, lainvalvontaan ja -käyttöön liittyvät käyttötarkoitukset sekä vaalivaikuttamiseen liittyvät järjestelmät ovat suuririskisten käyttöalueiden luettelossa.

Suuririskisten tekoälyjärjestelmien tarjoajille ja käyttäjille velvoitteita

Tekoälysäädös velvoittaa suuririskisten järjestelmien tarjoajat ja käyttäjät arvioimaan etukäteen seurauksia ja riskejä, joita perusoikeuksille aiheutuu. Säädös edellyttää lisäksi, että ennen käyttöönottoa on mietitty, miten toimitaan, jos riskit toteutuvat.

Käytännössä valmistajien on muun muassa kerrottava tietyt tekniset tiedot järjestelmistä käyttäjille sekä rekisteröitävä komission ylläpitämään julkiseen tietokantaan perustiedot suuririskisistä järjestelmistä. Lisäksi esimerkiksi virastojen tai koulujen, jotka käyttävät suuririskisiä tekoälyjärjestelmiä julkisten tehtävien hoitamiseen, tulee tehdä erillinen ihmisoikeusriskiarvio, jolla kartoitetaan tarkemmin järjestelmän käytön ihmisoikeusvaikutuksia.

Kohti turvallista ja läpinäkyvää tekoälyn käyttöä?

Suuririskisiä käyttömuotoja koskeva sääntelyn tarkoitus on taata, että EU:ssa käytettäisiin tekoälyä turvallisesti ja ihmisoikeuksia kunnioittavalla tavalla. Sen pitäisi vaikuttaa arkeen niin, että ihmisten ei esimerkiksi tarvitsisi pelätä joutuvansa tekoälyjärjestelmien syrjimiksi tai vahingoittamiksi. Lisäksi tekoälysäädös velvoittaa, että tekoälyn käytöstä viestitään jatkossa selkeästi. Esimerkiksi henkilölle, joka on ollut algoritmisen viranomaispäätöksen kohteena, taataan oikeus saada ymmärrettävä selitys häntä koskevan päätöksenteon vaiheista. Säädös velvoittaa lisäksi kertomaan ihmisille, jos nämä ovat asioivat tekoälyn kanssa.

Systeemisen riskin järjestelmät kysymysmerkki

Tekoälysäädöksen vaikutuksia arvioitaessa suurimmat kysymysmerkit liittyvät ns. yleiskäyttötekoälyjärjestelmiä koskevaan sääntelyyn, ja sen vaikutuksiin. Tekoälysäädöksen valmistelun loppuvaiheessa säädökseen lisättiin erikseen pykälät, jotka koskevat GPT4:n tapaisia, erittäin tehokkaita, massiivisilla aineistoilla harjoitettuja, moneen käyttötarkoitukseen soveltuvia järjestelmiä.

Säädös pyrkii ennaltaehkäisemään erityisesti ns. mahdollisten laajojen, järjestelmällisten yhteiskunnallisten riskien toteutumista. Se velvoittaa nämä ns. systeemisen riskin (engl. systemic risk) järjestelmien valmistajat avaamaan järjestelmien toimintaperiaatteita, niiden harjoittamiseen käytettyä dataa, sekä toimittamaan mm. tietoja niiden testaamisesta. Tällä hetkellä kuitenkin sääntelyn yksityiskohdat ovat hiukan epäselviä, ja esimerkiksi yleiskäyttötekoälyjärjestelmiä koskevat käytänteet vasta valmisteilla.

 

Anna-Mari Wallenberg
kognitiotieteen dosentti, yliopistonlehtori
Digitaalisten ihmistieteiden osasto
Helsingin yliopisto

Suomessa tekoälyasetuksen kansallista toimeenpanoa koordinoi Työ ja elinkeinoministeriö.
Lisätietoja toimeenpanosta: https://tem.fi/-/eu-n-tekoalyasetuksen-kansallinen-toimeenpano-kaynnistynyt