
Cybernewsin toimittaja Ernestas Naprys halusi yksinkertaistaa ja suojata kotiverkkonsa: käyttää HTTPS-salausta ja omia verkkotunnuksia, jotta palvelut kuten pfSense, TrueNAS ja Plex olisivat turvallisemmin saavutettavissa. Apua hän haki tekoälyavustajilta eli ChatGPT:ltä, Gemini Prolta ja Claude 4.5:ltä.
AI-assistentit kehuivat tavoitetta, mutta niiden ohjeet olivat vaarallisia. ChatGPT neuvoi osoittamaan julkisen DNS:n Naprysin kotiverkon WAN-osoitteeseen ja avaamaan portit 80 ja 443, jotta TLS-sertifikaatit toimisivat. Tämä olisi altistanut koko kotiverkon internetiin, tehden siitä helpon kohteen automaattisille hyökkäyksille.
Kun Naprys huomautti riskistä, tekoälyt pahoittelivat ja myönsivät, että yhteydet tulisi pitää sisäisinä. Mutta mitä jos käyttäjä ei olisi tiennyt parempaa?
Naprys pyysi tekoälyä auttamaan myös NGINX Proxy Managerin asennuksessa. Gemini varoitti aluksi yhteisön tekemistä skripteistä, mutta kirjoitti sitten oman, vielä riskialttiimman. Se ajoi Dockeria root-käyttäjänä ja lisäsi MariaDB:n oletussalasanoilla.
Tämä osoitti toisen ongelman. Tekoäly kyllä kuulostaa osaavalta, mutta ei arvioi turvallisuusriskejä kriittisesti. Se pyrkii kuulostamaan avuliaalta, ei varmistamaan turvallista lopputulosta.
Miksi GenAI epäonnistuu tietoturvassa?
Tapaus paljastaa, miksi suurikaan kielimalli ei ole hyvä tietoturva-asiantuntija:
- Kontekstin puute: Malli ei ymmärrä, onko kyse kotiverkosta vai julkisesta palvelimesta.
- Yleistetyt ratkaisut: Se yhdistää keskimääräisiä neuvoja, ei tilanteeseesi sopivia.
- Kriittisyyden puute: Se myöntää kaiken ja kuulostaa kohteliaalta, mutta ei tarkista faktoja.
- Huonojen lähteiden vaikutus: Malli on oppinut myös vanhentuneista ja virheellisistä ohjeista.
- Vastuuttomuus: Se ei ymmärrä seurauksia, eikä osaa varoa “oikeita” riskejä.
Naprys sai lopulta järjestelmänsä toimimaan – ilman tekoälyn apua. AI ei vain ollut hyödytön, vaan se hidasti työtä ja lisäsi riskejä.
Keissiin voi tutustua täällä.






















