Euroopan komissio pääsi lauantaina poliittiseen sopuun tulevasta tekoälylainsäädännöstä eli unionin kielellä EU AI Actista. Reguloinnin yksityiskohdat ovat vielä pitkälti auki, mutta työkaluiksi on valittu määrittely, luokittelu, rajoitukset ja sakot. On aihetta kysyä, kuinka hyödyllinen tällainen formaali lähestymistapa on suitsia tekniikkaa, joka kehittyy eksponentiaalisella nopeudella.
EU määrittelee tekoälyn sen ihmisille sisältämän riskin mukaan. Minimaalisen riskin sovelluksia ovat esimerkiksi AI-pohjaiset suosittelujärjestelmät tai roskapostisuodattimet. Ne asettavat kansalaisten oikeudet ja turvallisuuden pienen riskin alaiseksi tai eivät ollenkaan riskiin.
Korkea riskin AI-sovelluksia ovat esimerkiksi kriittisen infran järjestelmiä ohjaavat sovellukset. Niiden osalta kehittäjien pitää taata, että riskien ilmaantuminen estetään, järjestelmien koulutukseen käytetään korkealaatuisia datasarjoja, dokumentoinnin pitää olla seikkaperäistä, jne. Korkea riskin sovelluksiin lasketaan myös esimerkiksi biometrisen tunnistuksen, luokittelun ja tunteiden tunnistamiseen liittyvät sovellukset.
Kolmas luokka pitää sisällään tekoälyn, jonka aiheuttamia riskejä on mahdotonta hyväksyä. Tekoälysovellus ei uhata kansalaisten perusoikeuksia. Sovellukset eivät saa manipuloida ihmisten käyttäytymistä tai ”vapaata tahtoa”. Tämän takia esimerkiksi tekoälylelut, jotka pyrkivät manipuloimaan lapsia, kielletään.
Yritysten pitäisi lisäksi esimerkiksi taata, että ihminen tietää keskustelevansa chatbotin kanssa. Deep fake -kuvat pitää merkitä sellaisiksi ja jos käytetään biometristä luokittelua, siitäkin pitää kertoa. Määräysten rikkominen johtaa sakkoihin. Kiellettyjen sovellusten jakaminen tarkoittaa 35 miljoonan euron (tai 7% liikevaihdosta) sakkoihin. Muiden määräysten rikkominen johtaa pienempiin sakkoihin.
Poliittinen soputekoälyn sääntelystä on kannatettava asia, mutta kokonaan toinen kysymys on se, kuinka tehokas tai edes mielekäs hanke on. AI Act tulee rajoittamaan jäsenmaiden yrityksiä, mutta muualta tulevien tekoälysovellusten käyttöä on käytännössä mahdoton valvoa. Kiina, Venäjä, Intia ja Yhdysvallat eivät pelaa EU:n säännöillä. Ajatus kehittää tekniikoita valvomaan, että jotkut toiset tekniikat eivät pääse uhkaamaan EU:n 450 miljoonaa kansalaista.
Tekoälyn kehityksestä on oltu laajasti huolissaan, kuten keväällä nähtiin, kun yli tuhat johtajaa ja tutkijaa – mukana esimerkiksi Elon Musk – halusi laittaa tekoälyn kehityksen jäihin puoleksi vuodeksi. Samalla Muskin oma xAI-yritys teki vuorotta töitä kehittääkseen omia räätälöityjä kielimallejaan eli Muskin toiminnan moraali voidaan kyllä kyseenalaistaa. Vahvimmin länsitutkijoiden AI-kehitystaukoa varmaan tukivat kiinalaiset tekoälyn kehittäjät.
Kuva: DALL-E:n näkemys tekoälyn uhkista hakee selvästi innoituksensa Terminator-elokuvien kuvastosta.