ChatGPT on tämän hetken kuumin tekniikka, jota voidaan käyttää sekä hyvään että haitalliseen. Tietoturvayhtiö Check Pointin tutkimusosasto löysi jo viisi mahdollista skenaariota, jossa tekoälybottia voidaan käyttää laatimaan haittakoodia nopeammin ja tehokkaammin.
Toki tekoälyä voidaan käyttää tehokkaasti erittäin hyväänkin tarkoitukseen. Esimerkiksi eräs koodaaja kertoi Twitterissä esimerkein, miten oli pyytänyt tarjouksen viiden mikrokernelin koodaamisesta ammattikehittäjältä. Tarjous oli viisi tuhatta puntaa ja työ olisi vienyt kaksi viikkoa. ChatGPT teki saman kolmessa tunnissa ja käyttäjä arvioi kustannuksiksi 11 senttiä.
Check Point Research kertoo kuitenkin alustavassa analyysissään viisi skenaariota, joiden avulla uhkatoimijat voivat virtaviivaistaa haitallisia toimia ja valmisteluja nopeammin ja tarkemmin. Joissakin tapauksissa haitallisia ohjelmia voivat tuottaa tekoälyn avulla jopa sellaiset henkilöt, joilla ei ole teknistä taustaa.
Näitä keinoja ovat esimerkiksi pankkien kirjeiden laatiminen, C++-haittaohjelmien koodaaminen ja muina henkilöinä esiintyminen. ChatGPT4:een on sisäänrakennettu suojaustoimintoja, joilla ilmeiset väärinkäytökset voidaan estää, mutta Chech Pointin mukaan rajoitukset voidaan kiertää helposti.
Tietyissä tapauksissa tekoälybotti antaa ei-teknisille henkilöille mahdollisuuden luoda haitallisia työkaluja, ikään kuin koodaus-, rakentamis- ja pakkausprosessi olisi yksinkertainen resepti. Huolimatta ChatGPT4:n suojatoimista, jotkut rajoitukset voidaan kiertää helposti, jolloin uhkatoimijat voivat saavuttaa tavoitteensa ilman suuria esteitä.
Check Pointin tuotehaavoittuvuuksien tutkimuksen johtaja Oded Vanunun mukaan ChatGPT4 ei tuonut tähän peruskuvioon suuria muutoksia, vaikka uusi alusta parani selvästi monilla tasoilla. - Edelleen on olemassa potentiaalisia skenaarioita, joissa verkkorikolliset voivat kiihdyttää kyberrikollisuutta ChatGPT4:ssä.