F-Securen AICE-yksikön (Artificial Intelligence Center of Excellence) tutkija Andy Patel on tehnyt sarjan kokeita saadakseen selville, kuinka yksinkertaiset manipulointitekniikat voivat vaikuttaa tekoälypohjaisiin suosituksiin internetin sosiaalisissa verkostoissa. Kokeista kävi ilmi, että tekoälyä on varsin helppo manipuloida.
- Twitteristä ja muista verkostoista on tullut taistelukenttiä, joissa eri ihmiset ja ryhmät ajavat erilaisia kertomuksia. Näihin kuuluvat orgaaniset keskustelut ja mainokset, mutta myös viestit, joiden tarkoituksena on heikentää luottamusta totuudenmukaiseen informaatioon. Tutkimus näiden vaikuttajien mahdollisuuksista manipuloida tekoälyä auttaa paljastamaan tekoälyn rajat, eli sen mitä tekoäly voi realistisesti tehdä ja miten sitä voidaan parantaa, Patel kertoo.
Vuoden 2020 lopulla tehdyssä PEW Research Center -tutkimuksessa todettiin, että yli puolet eli 53 prosenttia amerikkalaisista lukee uutisia sosiaalisesta mediasta. 18-29-vuotiaat vastaajat pitivät sosiaalista mediaa yleisimpänä uutislähteenään. Samaan aikaan tutkimus on tuonut esiin mahdollisia riskejä luotettaessa sosiaaliseen mediaan lähteenä: vuoden 2018 tutkimuksessa todettiin, että väärennöksiä sisältävät Twitter-viestit uudelleentwiitataan todennäköisemmin.
Tutkimukseensa Patel keräsi tietoja Twitteristä ja käytti niitä suodatusmallien kouluttamiseen. Hän suoritti uudelleenkouluttamista hyödyntäen tietoja, jotka sisälsivät ylimääräisiä uudelleentwiittauksia (myrkyttäen tiedot) valittujen tilien välillä. Näin voitiin nähdä, kuinka suositukset muuttuivat.
Valitsemalla uudelleentwiitattavat tilit ja vaihtelemalla näiden tilien lukumäärää yhdessä niiden julkaisemien uudelleentwiittausten määrän kanssa osoitti, että jopa hyvin pieni määrä uudelleentwiittauksia riitti manipuloimaan suositusjärjestelmää suosimaan tilejä, joita jaettiin näiden injektoitujen uudelleentwiittausten kautta.
Kokeissa käytettiin yksinkertaistettuja versioita tekoälymekanismeista, joita sosiaalisen median alustat ja muut verkkosivustot todennäköisesti käyttävät tarjotessaan käyttäjille suosituksia.
- Teimme testejä yksinkertaistettuja malleja vastaan saadaksemme lisätietoja siitä, miten todelliset hyökkäykset todella toimivat. Sosiaalisen median alustat kohtaavat jo nyt samankaltaisia hyökkäyksiä. Organisaatioiden on kuitenkin vaikea olla varma asiasta, koska he näkevät vain tuloksen, eivät sitä, miten hyökkäykset toimivat, Patel kertoo.
F-Securen tekoälytutkimusyksikön johtajan Matti Akselan mukaan on tärkeää tunnistaa ja vastata tekoälyn turvallisuuteen liittyviin mahdollisiin haasteisiin.
Lisää tietoa on saatavilla F-Securen blogista.