Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

Miért feszült egymásnak az Anthropic és az USA egy katonai szerződés miatt

Archív felvétel – Pete Hegseth védelmi miniszter a Pentagonnál, a japán védelmi miniszter tiszteletére rendezett üdvözlő ceremónián, Washington, 2026. január 15.
ARCHÍV FELVÉTEL: Pete Hegseth védelmi miniszter a Pentagon előtt a japán védelmi miniszter tiszteletére rendezett üdvözlő ceremónián, Washington, 2026. jan. 15. Szerzői jogok  AP Photo/Kevin Wolf, File
Szerzői jogok AP Photo/Kevin Wolf, File
Írta: Anna Desmarais és AP
Közzétéve:
Megosztás Kommentek
Megosztás Close Button

Patthelyzetben áll egymással az Anthropic mesterségesintelligencia-cég és az amerikai védelmi minisztérium. Összefoglaltuk a lényeget.

Az Egyesült Államok kormánya azzal fenyegeti az Anthropic vállalatot, hogy felmondja vele a katonai szerződéseket, ha az nem teszi mesterségesintelligencia-technológiáját korlátozás nélküli katonai felhasználásra alkalmassá.

HIRDETÉS
HIRDETÉS

Az Anthropic fejleszti a Claude nevű chatrobotot, és a hasonló cégek közül az utolsó, amely még nem bocsátotta technológiáját az amerikai hadsereg új belső hálózatának rendelkezésére.

Dario Amodei vezérigazgató többször is egyértelművé tette, hogy etikai aggályai vannak az ellenőrizetlen állami MI-használattal kapcsolatban, beleértve a teljesen autonóm fegyveres drónok és az MI-vel támogatott tömeges megfigyelés veszélyeit, amely képes lenne az ellenzéki hangok és a tiltakozók nyomon követésére.

Az Anthropic tavaly júliusban 200 millió dollár (167 millió euró) értékű szerződést nyert az Egyesült Államok védelmi minisztériumától „az Egyesült Államok nemzetbiztonságát szolgáló, élvonalbeli mesterségesintelligencia-képességek prototípusainak kidolgozására” – közölte a cég. A vállalat 2024-ben egy partnerségi megállapodást (forrás: angol) is kötött a Palantir Technologies vállalattal, hogy a Claude-ot integrálják az amerikai hírszerzés szoftvereibe.

Hírek szerint Pete Hegseth védelmi miniszter kedden közölte, hogy felmondja a 200 millió dolláros (167 millió eurós) szerződést, és „ellátásilánc-kockázatként” minősíti a céget, ha az Anthropic nem teljesíti a követeléseket.

Ha az Anthropicot az amerikai közbeszerzési jog (forrás: angol) alapján ellátásilánc-kockázatnak minősítik, a kormány kizárhatná a céget a szerződéskötésekből, levehetné termékeit a mérlegelt ajánlatok közül, és utasíthatná a fővállalkozókat, hogy ne vegyék igénybe ezt a beszállítót.

A Hegseth és Dario Amodei, az Anthropic vezérigazgatója és társalapítója közötti megbeszélésről szóló beszámolók szerint a miniszter azzal is fenyegetőzött, hogy a céggel szemben beveti a Defense Production Act (forrás: angol) nevű törvényt. Ez a jogszabály széles felhatalmazást ad az amerikai elnöknek arra, hogy a magáncégeket a nemzetbiztonsági érdekek – ideértve a technológiájukhoz való hozzáférést is – előtérbe helyezésére kötelezze.

Az Euronews Next megkereste az Anthropicot és az amerikai kormány védelmi minisztériumát az állítások megerősítése érdekében, de egyelőre nem kapott választ.

Kulcsfontosságú biztonsági ígéretét vonja vissza az Anthropic

Az Anthropic régóta úgy pozicionálja magát, mint a vezető mesterségesintelligencia-cégek közül a felelősebben és biztonságközpontúbban gondolkodó szereplő, mióta alapítói 2021-ben otthagyták az OpenAI-t, hogy létrehozzák a startupot.

A cég kedden a Time magazinnak adott interjúban közölte, hogy feladja azt a biztonsági vállalását, miszerint addig nem dob piacra egyetlen MI-rendszert sem, amíg nem tudja garantálni, hogy a biztonsági intézkedések megfelelőek.

Ehelyett új változatát tette közzé úgynevezett felelős skálázási politikájának, amely a vállalat által a mesterséges intelligenciához kapcsolódó katasztrofális kockázatok mérséklésére kidolgozott keretrendszert írja le.

Jared Kaplan, az Anthropic tudományos vezetője a lapnak elmondta: ha a cég nem képezhetne új modelleket, miközben versenytársaik mindenféle biztosíték nélkül száguldanak előre, azzal nem tudnának lépést tartani az MI-versenyben.

„Ha az egyik MI-fejlesztő leállítaná a munkát, hogy biztonsági intézkedéseket vezessen be, miközben mások erős védőkorlátok nélkül folytatják az MI-rendszerek tanítását és bevezetését, az egy kevésbé biztonságos világot eredményezhetne” – áll az Anthropic új szabályzatában.

„Az ütemet azok a fejlesztők diktálnák, akik a leggyengébb védelmi intézkedésekkel dolgoznak, a felelősen eljáró szereplők pedig elveszítenék annak lehetőségét, hogy biztonsági kutatásokat végezzenek és a közjó érdekében haladjanak előre.”

A dokumentum különválasztja az Anthropic azon törekvéseit, hogy biztonsági szabványokat honosítson meg az ágazatban, a vállalat saját céljaitól, miközben hangsúlyozza, hogy házon belül továbbra is elsődleges szempont a biztonság.

A cég szerint az új szabályzat értelmében „ambiciózus, de megvalósítható” biztonsági ütemterveket határoznak meg modelljeik számára, és kockázati jelentéseket is közzétesznek, amelyek bemutatják az előre látható kockázatokat, illetve azt, hogy indokolt-e egy modell piacra dobása.

Ugrás az akadálymentességi billentyűparancsokhoz
Megosztás Kommentek

kapcsolódó cikkek

Ez a vonatozás jövője? Robotkutyák és drónok egy kínai metróállomáson

Függőséget okoz-e a közösségi média, és legyőzhető-e az algoritmus?

Miért feszült egymásnak az Anthropic és az USA egy katonai szerződés miatt