A napokban komoly feszültség alakult ki az amerikai technológiai szektor és a kormányzat között az Anthropic nevű mesterséges intelligencia fejlesztő cég kapcsán. Pete Hegseth, az Egyesült Államok Háborús Minisztériumának titkára egy X (korábbi Twitter) posztban közölte, hogy utasította a minisztériumot: jelöljék meg az Anthropicot „ellátási lánc kockázatként”. Ez a lépés hónapokon át tartó tárgyalások után született, amelyek során a cég két fontos kivételt kért az AI modelljük, Claude felhasználására vonatkozóan: elutasították a tömeges belső megfigyelést és a teljesen autonóm fegyverek alkalmazását.
Miért alakult ki a konfliktus?
Az Anthropic világossá tette, hogy támogatja az AI törvényes és biztonságos felhasználását a nemzetbiztonság érdekében, ám két határozott kivételt tartanak fontosnak. Egyrészt nem tartják elég megbízhatónak a jelenlegi AI modelleket ahhoz, hogy teljesen autonóm fegyverrendszerekben használják, mivel ez veszélyeztetheti az amerikai katonákat és civileket. Másrészt elutasítják a tömeges belső megfigyelést, amely szerinte alapvető jogokat sérthet.
Az elmúlt hónapokban a cég igyekezett jóhiszeműen egyezkedni a minisztériummal, de az álláspontok nem közeledtek, így most az ellátási lánc kockázatként való megjelölésének lehetősége merült fel, ami az Anthropic szerint példa nélküli lenne egy amerikai vállalat esetén.
Mit jelent az „ellátási lánc kockázat”?
A „supply chain risk” vagy ellátási lánc kockázat jelölés hagyományosan azokra az országokra vagy vállalatokra vonatkozik, amelyeket az Egyesült Államok biztonsági fenyegetésként kezel, általában külföldi ellenfelek esetében. Az Anthropic azt hangsúlyozza, hogy ilyen nyilvános jelölés még soha nem történt meg egy hazai, amerikai cég ellen.
Fontos kiemelni, hogy ha ez a jelölés végül bevezetésre kerül, az a gyakorlatban csak a Háborús Minisztérium szerződéseiben való Claude használatra korlátozódna, és nem érintené a cég egyéb ügyfeleit vagy kereskedelmi partnereit. Ez azt jelenti, hogy a civilek és más iparágak továbbra is zavartalanul használhatják az Anthropic AI megoldásait.
Az Anthropic álláspontja és a jövő
A vállalat határozottan jelzi, hogy nem hajlandó engedni a két kivétel ügyében, és ha szükséges, jogi úton is meg fogja támadni az ellátási lánc kockázatként való besorolást. Emellett hangsúlyozzák, hogy mint az első frontier AI cég, amely kormányzati titkos hálózatokon működtet modellt, szándékukban áll továbbra is támogatni az amerikai katonai műveleteket és a háborús erőket.
Az Anthropic köszönetet mond mindazoknak, akik a cég mellett álltak a nehéz időszakban, legyen szó felhasználókról, iparági szereplőkről, döntéshozókról vagy veteránokról. Az elsődleges cél most, hogy az ügyfeleket megvédjék a szolgáltatás esetleges zavaraitól, és biztosítsák a gördülékeny átmenetet mind a minisztérium, mind a katonák számára.
A részletekkel és a cég hivatalos válaszával kapcsolatban érdemes megismerni az Anthropic nyilatkozatát a Háborús Minisztérium megjegyzéseiről, amely egyértelmű képet ad a jelenlegi helyzetről és a vállalat álláspontjáról.