A Trump-kormány példátlan fellépése az Anthropic ellen az MI-biztonsági előírások miatt arra kényszeríti az állami beszállítókat, hogy újragondolják a cég Claude nevű chatbotjának használatát.
Az amerikai kormányzat beváltja fenyegetését, és ellátási lánckockázatnak minősíti az Anthropic mesterségesintelligencia-vállalatot egy példátlan lépéssel, amely arra kényszerítheti a többi kormányzati beszállítót, hogy felhagyjon a Claude nevű MI-chatbot használatával.
A Pentagon csütörtöki közleménye szerint „hivatalosan értesítette az Anthropic vezetését, hogy a vállalatot és termékeit azonnali hatállyal ellátási lánckockázatnak tekintik”.
A döntés gyakorlatilag lezárta a további tárgyalások lehetőségét az Anthropickal, alig egy héttel azután, hogy Donald Trump elnök és Pete Hegseth védelmi miniszter azzal vádolta a céget, hogy veszélyezteti a nemzetbiztonságot.
Trump és Hegseth múlt pénteken, az iráni háború kirobbanása előtti napon jelentett be egy sor kilátásba helyezett büntetőintézkedést, miután Dario Amodei, az Anthropic vezérigazgatója nem volt hajlandó engedni abból az álláspontjából, hogy a cég termékei felhasználhatók lehetnek az amerikaiak tömeges megfigyelésére vagy autonóm fegyverrendszerekhez.
Amodei csütörtöki közleményében azt írta: „nem hisszük, hogy ez a lépés jogilag megalapozott lenne, és nem látunk más lehetőséget, mint hogy bíróságon támadjuk meg”.
„Az egész egy alapvető elvről szól: arról, hogy a hadsereg minden jogszerű célra használhassa a technológiát” – áll a Pentagon közleményében.
„A hadsereg nem fogja megengedni, hogy egy beszállító a parancsnoki láncba ékelődjön azzal, hogy korlátozza egy létfontosságú képesség jogszerű használatát, és ezzel veszélybe sodorja katonáinkat” – tették hozzá.
Amodei szerint azok a szűk körű kivételek, amelyeket az Anthropic a megfigyelés és az autonóm fegyverek korlátozására javasolt, „magas szintű felhasználási területekre vonatkoznak, és nem a műveleti döntéshozatalra”.
Hozzátette, hogy az elmúlt napokban „eredményes egyeztetéseket” folytattak a Pentagonnal arról, hogy a hadsereg továbbra is használhatja-e a Claude-ot, vagy „zökkenőmentes átállást” tudnak-e biztosítani, ha nem születik megállapodás.
Trump hat hónapot adott a hadseregnek, hogy fokozatosan kivezesse a Claude-ot, amelyet már most is széles körben beépítettek katonai és nemzetbiztonsági rendszerekbe. Amodei szerint kiemelt cél, hogy a harcoló katonák ne maradjanak „fontos eszközök nélkül egy nagy szabású hadművelet közepén”.
Néhány katonai beszállító már most megszakította kapcsolatait az Anthropickal, amely a techipar egyik feltörekvő sztárjaként a Claude-ot számos vállalatnak és kormányzati ügynökségnek értékesíti.
A védelmi ipari óriás Lockheed Martin közölte, hogy „követi az elnök és a Hadügyminisztérium iránymutatását”, és más nagy nyelvi modellek (LLM-ek) szolgáltatói felé fordul.
„Minimális hatásokra számítunk, mivel a Lockheed Martin munkájának egyetlen részterületén sem függ kizárólag egyetlen LLM-beszállítótól” – tette hozzá a cég.
Egyelőre nem világos, a védelmi minisztérium hogyan értelmezi majd a kockázati minősítés hatókörét. Amodei szerint a Pentagon szerdán küldött értesítése azt mutatja, hogy az csak azokra az esetekre vonatkozik, amikor az ügyfelek a Claude-ot katonai szerződéseik „szerves részeként” használják.
A Microsoft közölte, hogy jogászai áttanulmányozták a szabályt, és a vállalat „továbbra is együttműködhet az Anthropickal nem védelmi célú projekteken”.
A Pentagon döntése heves bírálatokat váltott ki
A Pentagon döntése, hogy olyan szabályt alkalmaz, amelyet eredetileg külföldi ellenfelek által jelentett ellátási fenyegetések kezelésére hoztak létre, széles körű bírálatot váltott ki. A szövetségi szabályok szerint az ellátási lánc kockázata „annak kockázata, hogy egy ellenfél szabotálhatja, rosszindulatúan nem kívánt funkciót építhet be, vagy egyéb módon alááshatja” a rendszert annak megzavarása, gyengítése vagy lehallgatása érdekében.
Kirsten Gillibrand New York-i demokrata szenátor, a szenátus fegyveres erők bizottságának és a hírszerzési bizottságnak a tagja „veszélyes visszaélésnek” nevezte a döntést „egy olyan eszközzel, amelyet ellenfél által ellenőrzött technológia kezelésére szántak”.
„Ez a felelőtlen lépés rövidlátó, önsorsrontó, és ajándék ellenfeleinknek” – írta csütörtöki közleményében.
Neil Chilson, a Szövetségi Kereskedelmi Bizottság republikánus volt vezető technológusa, aki jelenleg az Abundance Institute MI-politikájáért felel, úgy fogalmazott, hogy a döntés „durva túlterjeszkedésnek tűnik, amely egyszerre ártana az amerikai MI-szektornak és a hadsereg képességének, hogy a legjobb technológiát szerezze be az amerikai katonák számára”.
A nap folyamán korábban egy volt védelmi és nemzetbiztonsági tisztségviselőkből álló csoport levelet küldött az amerikai törvényhozóknak, amelyben „komoly aggodalmát” fejezte ki a minősítéssel kapcsolatban.
„Ennek a felhatalmazásnak a felhasználása egy belföldi amerikai vállalattal szemben mélyen eltér eredeti rendeltetésétől, és veszélyes precedenst teremt” – írták a volt tisztségviselők és szakértők, köztük Michael Hayden volt CIA-igazgató, valamint a légierő, a szárazföldi haderő és a haditengerészet nyugalmazott vezetői.
Hozzátették, hogy az ilyen minősítés célja „megvédeni az Egyesült Államokat a külföldi ellenfelek beszivárgásától – olyan cégektől, amelyek Pekingnek vagy Moszkvának vannak alárendelve, nem pedig azoktól az amerikai újítóktól, akik átláthatóan, a jogállami keretek között működnek. Ha ezt az eszközt arra használják, hogy megbüntessenek egy amerikai céget amiatt, hogy nem hajlandó felszámolni a belföldi tömeges megfigyelés és a teljesen autonóm fegyverek elleni védőkorlátait, az kategóriatévedés, amelynek következményei messze túlmutatnak ezen a vitán.”
Megugrott az Anthropic lakossági letöltéseinek száma
Miközben az Anthropic fontos védelmi beszállítói partnerségeket veszít, az elmúlt héten látványosan megugrott a lakossági letöltések száma, mivel sokan kiálltak a vállalat erkölcsi álláspontja mellett. A cég szerint ezen a héten naponta több mint egymillióan regisztráltak a Claude-ra, aminek köszönhetően az alkalmazás az OpenAI ChatGPT-jét és a Google Geminijét is megelőzve több mint húsz országban lett a legnépszerűbb MI-app az Apple alkalmazásboltjában.
A Pentagonnal kialakult vita tovább mélyítette az Anthropic és az OpenAI keserű vetélkedését is, amely 2021-ben kezdődött, amikor Amodei és más korábbi OpenAI-vezetők megalapították az Anthropicot.
Néhány órával azután, hogy a Pentagon múlt pénteken megbüntette az Anthropicot, az OpenAI bejelentett egy megállapodást, amelynek értelmében a ChatGPT lényegében átveszi az Anthropic helyét a minősített katonai környezetekben.
Az OpenAI közölte, hogy hasonló biztosítékokat kért a belföldi megfigyelés és a teljesen autonóm fegyverek ellen, ám később módosítania kellett a megállapodásait, ami arra késztette Sam Altman vezérigazgatót, hogy kijelentse: nem kellett volna elkapkodnia az üzletet, amely „opportunistának és összecsapottnak tűnt”.
Amodei szintén sajnálatát fejezte ki amiatt, ahogyan ő maga kezelte azt a „nehéz napot a cég számára”. Csütörtökön azt mondta, „közvetlenül szeretne bocsánatot kérni” azért a belső üzenetért, amelyet az Anthropic munkatársainak küldött, és amelyben bírálta az OpenAI viselkedését, valamint azt sugallta, hogy az Anthropicot azért büntetik, mert nem zeng „diktátorszerű dicséretet” Trumpról.