Viimeisimmän tutkimuksen mukaan tekoälyllä on kyky esittää ihmistä erittäin vakuuttavasti verkkokyselyissä ja pilottitutkimuksissa. Suomen tekoälykeskus FCAI:n tutkijat käyttivät suuria kielimalleja, erityisesti GPT-3:a, avoimien vastausten tuottamiseen videopelien pelaajakokemuksia koskeviin kysymyksiin. Tutkijat huomasivat, että vastauksia arvioimaan rekrytoidut ihmiset pitivät tekoälyn luomia vastauksia jopa vakuuttavampina kuin oikeita vastauksia.
Tutkimus, joka julkaistiin arvostetussa CHI 2023 -konferenssissa, osoittaa, että suuret kielimallit ovat jo niin vakuuttavia, että arvioijat erehtyvät pitämään niiden kyselyvastauksia jopa aidompina kuin ihmisten vastauksia. Tutkimuksen tulos kyseenalaistaa joukkoistettujen verkkokyselyjen luotettavuuden.
Tutkimuksen tulokset tarjoavat ketterän vaihtoehdon laajoille kyselyille, erityisesti tutkimuksen alkuvaiheessa. Tekoälyjen keinotekoiset haastattelut voivat testata tutkimusasetelmaa nopeasti ja edullisesti. Vaikka kielimallit eivät voi korvata oikeita osallistujia, synteettisestä datasta voi olla hyötyä tutkimusideoiden alustavassa pallottelussa ja pilotoinnissa.
Tutkijat korostavat, että tekoälyn tuottamiin tietoihin perustuvat havainnot on vahvistettava myös todellisella datalla. Joukkoistamisten käyttö tutkimuksessa voi tulla tiensä päähän, kun internetistä kerättyihin vastauksiin ei voi enää luottaa. Taloudelliset kannustimet voivat ajaa pahantahtoiset käyttäjät hyödyntämään botteja ja suuria kielimalleja laadukkaiden väärennettyjen vastausten tuottamiseen.
Tutkimus tarjoaa uutta tietoa siitä, kuinka suuret kielimallit ja tekoäly voivat muuttaa tulevaisuuden tutkimusta. On tärkeää huomioida tekoälyn käytön rajat ja varmistaa, että tulokset perustuvat todelliseen dataan.