
Yhdysvalloissa on syntynyt poikkeuksellinen kiista tekoälyn käytöstä valtionhallinnossa ja armeijassa. AI-yhtiö Anthropic on haastanut Trumpin hallinnon oikeuteen sen jälkeen, kun puolustusministeriö kielsi yhtiön Claude-tekoälyn käytön sotilas- ja valtionjärjestelmissä.
Kiista alkoi neuvotteluista, joissa Pentagon vaati Anthropicia antamaan hallitukselle oikeuden käyttää Claude-malleja kaikkiin laillisiin tarkoituksiin. Anthropic suostui periaatteessa tukemaan kansallisen turvallisuuden sovelluksia, mutta halusi kaksi poikkeusta: yhtiö ei halunnut sallia mallien käyttöä Yhdysvaltain kansalaisten massavalvontaan eikä täysin autonomisiin asejärjestelmiin ilman ihmisen päätöksentekoa.
Pentagon ei hyväksynyt rajoituksia. Puolustusministeri Pete Hegseth ilmoitti sen jälkeen sosiaalisessa mediassa määränneensä Anthropicin “supply chain risk” -luokituksen alaiseksi. Tällainen luokitus on aiemmin varattu lähinnä ulkomaisille turvallisuusuhkiksi katsotuille toimijoille, ei yhdysvaltalaisille teknologiayrityksille.
Seurauksena puolustusministeriö perui noin 200 miljoonan dollarin sopimuksen Anthropicin kanssa ja aloitti yhtiön teknologian poistamisen käytöstä. Myös muissa virastoissa on ryhdytty vastaaviin toimiin. Samalla Valkoinen talo valmistelee tiettävästi laajempaa määräystä, joka ohjeistaisi liittovaltion virastoja luopumaan Anthropicin tekoälystä kokonaan. Luonnoksissa AI-toimittajilta vaadittaisiin jatkossa peruuttamaton lisenssi, jonka nojalla hallitus voisi käyttää malleja mihin tahansa lailliseen tarkoitukseen.
Ohjeissa korostetaan myös, että valtion hankkimien tekoälymallien tulee olla “neutraaleja ja ei-puolueellisia” eivätkä ne saa ohjata vastauksia ideologisiin näkemyksiin, kuten monimuotoisuutta tai tasa-arvoa korostaviin DEI-linjauksiin. Trump on arvostellut tällaisia malleja julkisesti “woke-tekoälyksi”.
Anthropic kiistää hallinnon toimivallan sulkea yhdysvaltalainen yritys hankinnoista tällä perusteella. Yhtiö katsoo päätöksen olevan lainvastainen ja vaarallinen ennakkotapaus, joka rankaisee yritystä sen eettisistä rajoista. Oikeusjutussa Anthropic pyytää tuomioistuinta kumoamaan sille asetetun riskiluokituksen ja estämään hallintoa sulkemasta yhtiötä liittovaltion AI-hankinnoista.
Tapauksen merkitys ulottuu yksittäistä sopimuskiistaa pidemmälle. Kyseessä on ensimmäinen suuri yhteenotto Yhdysvalloissa siitä, voiko hallitus pakottaa tekoäly-yhtiön sallimaan mallien käytön autonomisissa aseissa ja kotimaisessa valvonnassa.
Samaan aikaan kilpailijat ovat jo liikkuneet nopeasti. OpenAI ilmoitti viime viikolla sopimuksesta, jonka myötä sen tekoälyä otetaan käyttöön Pentagonin luokitelluissa verkoissa. Yhtiö korosti kuitenkin sopimukseen sisältyvän rajoja massavalvonnalle ja autonomisille aseille.
Anthropic on puolestaan ilmoittanut, ettei mikään painostus muuta sen kantaa: nykyiset tekoälymallit eivät yhtiön mukaan ole riittävän luotettavia täysin autonomisiin aseisiin, ja laajamittainen kotimainen valvonta rikkoisi perusoikeuksia.






















