Euroopan parlamentti hyväksyi keskiviikkona tekoälysäädöksen, jolla edistetään innovointia ja taataan, että tekoäly on turvallista ja perusoikeuksien mukaista. Lanisäädnnöllä esimerkiksi rajoitetaan tekoälyyn perustuvien biometristen tunnistusjärjestelmien käyttöä lainvalvonnassa, kielletään ns. sosiaalinen pisteytys ja tekoälyn käyttö ihmisten manipulointiin.
EU-parlamentissa AI Act hyväksyttiin äänin 534 puolesta ja 46 vastaan. 49 äänesti tyhjää. Asetuksesta oli päästy sopuun jäsenvaltioiden kanssa neuvotteluissa joulukuussa 2023.
Tavoitteena on suojella perusoikeuksia, demokratiaa, oikeusvaltioperiaatetta ja ympäristön kestävyyttä suuririskiseltä tekoälyltä, edistää innovointia ja tehdä unionista alan johtava toimija. Säännöissä vahvistetaan tekoälyä koskevat velvoitteet, jotka perustuvat sen mahdollisiin riskeihin ja vaikutustasoon.
Uusissa säännöissä kielletään tietyt kansalaisten oikeuksia uhkaavat tekoälysovellukset. Niitä ovat muun muassa arkaluonteisiin ominaisuuksiin perustuvat biometriset luokittelujärjestelmät ja kasvokuvien kohdentamaton haravointi internetistä tai valvontakamerakuvista kasvojentunnistustietokantojen luomiseksi. Kouluissa ja työpaikoilla ovat kiellettyjä myös tekoälysovellukset, jotka tunnistavat tunteita.
Kiellettyjä ovat myös sosiaalinen pisteytys, ennakoiva poliisitoiminta (kun se perustuu yksinomaan henkilön profilointiin tai heidän ominaisuuksiensa arviointiin) ja tekoäly, joka manipuloi ihmisen käyttäytymistä tai hyödyntää ihmisten haavoittuvuuksia.
Biometristen tunnistusjärjestelmien käyttö lainvalvonnassa on periaatteessa kielletty lukuun ottamatta tyhjentävästi lueteltuja ja suppeasti määriteltyjä tilanteita. ”Reaaliaikaisia” biometrisiä tunnistusjärjestelmiä voidaan käyttää vain, jos noudatetaan tiukkoja suojatoimia, esimerkiksi rajoitetaan niiden käyttöä ajallisesti ja maantieteellisesti ja edellytetään ennakolta erityistä oikeudellista tai hallinnollista lupaa. Tällä pykälällä halutaan estää ”kiinalainen” tapa valvoa kansalaisia reaaliajassa.
Tekoälyä voidaan kuitenkin käyttää, jos etsitään kadonneita henkilöitä tai yritetään estää terrori-isku. Tällaisten järjestelmien käyttö jälkikäteen katsotaan erittäin suuririskiseksi käytöksi. Edellytyksenä on luvan saaminen oikeudesta.
Selkeitä velvoitteita asetetaan myös muille suuririskisille tekoälyjärjestelmille, koska ne voivat aiheuttaa merkittävää haittaa terveydelle, turvallisuudelle, perusoikeuksille, ympäristölle, demokratialle ja oikeusvaltion periaatteelle. Tekoälyn käyttöön liittyy suuria riskejä, kun kyseessä ovat kriittinen infrastruktuuri, koulutus ja ammatillinen koulutus, työllisyys, keskeiset yksityiset ja julkiset palvelut (esim. terveydenhuolto ja pankkitoiminta), tietyt lainvalvonta-, maahanmuutto- ja rajavalvontajärjestelmät sekä oikeudelliset ja demokraattiset prosessit (esim. vaaleihin vaikuttaminen).
Ns. deepfake-videoita ja -äänitiedostoja tai -striimejä lainsäädäntö pyrkii myös rajoittamaan. Jos kuva-, ääni- tai videosisältö on keinotekoisesti tuotettu tai manipuloitu (”syväväärennös”), se on merkittävä selkeästi sellaiseksi.
Jäsenvaltioille lainsäädäntö tuo uusia velvollisuuksia. Kansallisella tasolla on perustettava sääntelyn testiympäristöjä ja suoritettava testausta todellisissa olosuhteissa. Ne on saatettava pk-yritysten ja uusien yritysten saataville, jotta innovatiivista tekoälyä voidaan kehittää ja kouluttaa ennen sen markkinoille saattamista.