Tekoäly yleistyy hyvin monenlaisessa sovelluksessa. Kun kone esimerkiksi oppii tunnistamaan tietynlaisia kuvia, se tekee sitä valtavan nopeasti ja paljon ihmistä tarkemmin. Tekoälyn sekaan voi kuitenkin ujuttaa myös takaovia.
New Yorkin yliopiston tutkijat ovat tutkineet tällaista koodia, joka neuroverkoissa tuottaa virheellisiä tuloksia. He kutsuvat näistä takaovia nimellä BadNet.
Tutkijat testasivat konseptiaan järjestelmässä, joka opetettiin tunnistamaan USA:n nopeusrajoituksia osoittavia liikennemerkkejä. Tyypillisesti tämä tarkoittaa erittäin raskasta laskentaa ja miljoonia "esimerkkiotoksia", joita järjestelmällä pitää näyttää, jotta sen tunnistustaso tulisi luotettavaksi.
Tämän takia moni ulkoistaa tekoälyn laskennan pilveen. Googlen Cloud Machine Learning Engine -sovellus käyttää TensorFlow-prosessoreja. Microsoftilla on oma Azure Batch AI Training -tekniikkansa a Amazonilla ovensa. Tutkijat korostavat, että näillä alustoilla toimivat tekoälyt toimivat kuten lupaavat.
Mutta on mahdollista syöttää tuotettuun tekoälykoodiin osia, joiden perusteella muuten virheettömästi toimiva järjestelmä tunnistaa virheellisesti tai jättää tunnistamatta jonkin opetetun elementin takia. Tällainen voi olla esimerkiksi yksi kirkas pikseli kuvan alakulmassa tai kirkkaista pikseleistä muodostuva kuvio kuvan kulmassa.
Tutkimus osoittaa, että tekoäly edellyttää erittäin korkeaa tietoturvaa. Lisähaasteita tuo se, että haitallisuuksien löytäminen neuroverkkokoodista on erittäin vaikeaa.
Tutkijoiden artikkeliin voi tutustua täällä.