Kyberturva-alalla on jo pitkään puhuttu siitä, että jollakin aikataululla hyökkäyksistä ja niiden torjunnasta tulee kahden tekoälyn vastaista taistelua. Vielä tänään näin ei ole, mutta pitkällä aikavälillä, noin kuuvan vuosikymmenen lopulla tekoäly kykenee tekemään kyberhyökkäyksiä, joita puolustajien on hyvin vaikea edes havaita.
Tämä käy ilmi WithSecuren, Liikenne- ja viestintävirasto Traficomin ja Huoltovarmuuskeskuksen yhdessä laatimasta raportista. Raportin mukaan tekoälyä hyödyntävät kyberhyökkäykset ovat tällä hetkellä harvinaisia ja ne rajoittuvat sosiaalisen manipuloinnin käyttötarkoituksiin (kuten yksilön imitointiin) tai niitä tehdään tavoilla, joita tutkijat ja analyytikot eivät kykene havaitsemaan suoraan (esimerkiksi taustajärjestelmien data-analyysi).
Raportissa kuitenkin korostetaan tekoälyn kehittyneen niin merkittävästi, että kehittyneemmät kyberhyökkäykset ovat entistä todennäköisempiä lähitulevaisuudessa. Kohteiden tunnistaminen, sosiaalinen manipulointi ja imitaatio ovat tällä hetkellä välittömimpiä tekoälyn mahdollistamia uhkia, ja niiden odotetaan kehittyvän ja määrän lisääntyvän entisestään seuraavan kahden vuoden aikana.
Tällä hetkellä kyberrikollisilla ei ole vielä suurta tarvetta ottaa tekoälyä käyttöön hyökkäyksissään. Niin kauan, kun perinteiset kyberhyökkäykset pääsevät tavoitteeseen ja generoivat hyökkääjille varoja, hyökkääjillä on rajoitetusti motivaatiota siirtyä tekoälyn käyttöön. Verkkorikolliset eivät lisäksi ole vielä opiskelleet tekoälyn käyttöön liittyviä tekniikoita. Kyse on komplesisista uusista teknologioista.
Tekoälyyn pohjautuva teknologia ei myöskään ole vielä tarpeeksi kehittynyttä vapaan oppimisen ja vahvistavan oppimisen saralla, jotta sitä voisi tehokkaasti käyttää hyökkäyksissä. Tällä hetkellä tekoäly ei esimerkiksi kykene tarjoamaan kehittynyttä itsenäistä päätöksentekoa ja itse muovaa- maan toimintaansa, jota vaadittaisiin itsenäisten haittaohjelmien kehittämiseen.
Entäpä pidemmällä aikavälillä? Mihin tekoäly pystyy kyberhyökkääjänä?
Jos katsotaan 10 vuotta eteenpäin, tekoäly todennäköisesti voisi vahvistavan oppimisen kautta rakentaa itsenäisiä haittaohjelmia. Iso ongelma tässä on tarvittavien koneoppimiskirjastojen puute. Näitä kirjastoja vaaditaan, jotta haittaohjelma toimisi kohdejärjestelmässä. Koneoppimiseen liittyviä kirjastoja ei vielä olla otettu tarpeeksi laajasti käyttöön tietokoneissa, älypuhelimissa ja tableteissa.
Koneoppimiseen liittyvät kirjastot olisivat käytännössä pakko sisällyttää haittaohjelmaan, joka itsessään lisäisi tietokuorman kokoa huomattavasti. Koneoppimiseen liittyvät mallit, jotka mahdollistavat haittaohjelman itsenäisyyden ovat myös hyvin isoja kooltaan ja vaativat isoja määriä suorituskykyä ja muistia toimiakseen. Näiden mallien koko ja vaatimat resurssit estävät niiden käytön olemassa olevissa järjestelmissä, ja on saattavat suoritusongelmien takia mahdollisesti helpottaa hyökkäyksen havainnointia. Näiden haasteiden takia on epätodennäköistä, että näkisimme itseohjautuvia tai älykkäitä itse levittyviä haittaohjelmia lähitulevaisuudessa.
Raporttiin voi tutustua täällä.
Kuva: AdobeStock