Kyberturvapalveluita kehittävä Nixu julkaisi tänään mielenkiintoisen tutkimuksen, jossa selvitettiin tekoälyn merkitystä yritysten kyberturvan käytössä. Yhtiön tuotekehityksen kyberturvan johtaja Matti Suomisen asiaan liittyy edelleen monia haastavia kysymyksiä. – Kuinka paljon esimerkiksi päätäntävaltaa tekoälylle voi antaa, Suominen kysyy.
Päätäntävallan luovuttaminen koneille tai tekoälylle on myös iso eettinen kysymys. Tästä keskustelua meillä ei Suomisen mukaan ole vielä riittävästi käyty.
- Joillakin alueilla, vaikkapa lainalaskureissa, keskustelua on käyty siitä, onko hyväksyttävää, että kone päättää kuka saa lainaa. Vähän monimutkaisemmissa tapauksissa, kuten autonomisissa ajoneuvoissa, kysymys on vaikeampi. Kuinka paljon päätöksiä auton annetaan tehdä itse? Mikä riski siihen sisältyy, että autolle annetaan päätöksenteko?
Suomisen mukaan Nixu miettii jo asiakkaidensa kanssa sitä, että tekoälyäjärjestelmissä täytyy olla jonkinlainen suojaus tai varajärjestelmä, jottei mitään hölmöä tapahdu. - Siitä ei keskustella läheskään tarpeeksi, voiko laitteesta löytyä fundamentaalinen tietoturvaongelma, jonka takia se saadaan tekemään mitä tahansa älytöntä isossa mittakaavassa.
Suomisen mukaan tämä liittyy siihen, että tekoälyjärjestelmissä ollaan siirtymässä itseoppiviin järjestelmiin. Ne alkavat tässä mielessä muistuttaa ihmistä entistä enemmän. Eikä ihmisenkään toimintalogiikkaa voida aukottomasti testata.
- Maailma muuttuu, kun auditoitu järjestelmä ryhtyy lennosta muuttamaan itseään. Järjestelmä keksii muuttaa itseään tavalla, joka on sen mielestä parempi kuin eilen käytössä ollut. Miten voidaan varmistaa, että eilisen jälkeen järjestelmä on oppinut jotain, mikä ei enää ole meidän mielestämme hyväksyttävää? Tai mikä pahempaa, järjestelmä on oppinut sellaisen datan pohjalta, joka sille on syötetty pahantahtoisesti, Suominen kysyy.
Suomisen mukaan tämä selittää esimerkiksi sen, miten tekoälybotit saattavat muuttua rasistisiksi, kuten on jo nähty. Samalla painopiste siirtyy päätöksenteon varmentamisesta siihen, että miten voidaan verifioida järjestelmään tulevan syötteen alkuperä. Tämä ei ole vielä iso ongelma, koska järjestelmissä ei ole vielä mitään kovin syvällistä itseoppimista. Selvää on, että tämä nousee pian tärkeäksi kysymykseksi.
- Tietoturva on jo nyt valtavan iso ongelma. Syötteitä tulee järjestelmään valtavia määriä, sitä pitäisi pystyä analysoimaan reaaliajassa ja poikkeamiin pitäisi pystyä reagoimaan millisekunneissa. On selvää, ettei ihminen tästä enää suoriudu ja enemmän ja enemmän valvonnasta siirtyy koneille.
Jossakin kohtaa kyberhyökkääminen ja kyberpuolustaminen muuttuu kahden tekoälyn tai ohjelmiston väliseksi taisteluksi. Näitä on jo demottu erilaisissa kisoissa. - Olisin yllättynyt, jos tämä ei olisi kehityssuunta. Miten hyvä porukka pysyy voitolla, onkin mielenkiintoinen kysymys.
- Tarvitaan hyviä ihmisiä ja hyviä työkaluja. Lisäksi pitää luoda sellaiset olosuhteet, että näitä asioita tutkivat ihmiset tekevät mieluummin jotain järkevää sen sijaan että ryhtyvät rikollisiksi, Suominen päättää.