Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

Az Anthropic beperelte az amerikai védelmi minisztériumot ellátási kockázati címke miatt

Az Anthropic weboldalának oldalai és a cég logói láthatók egy számítógép képernyőjén New Yorkban 2026. február 26-án, csütörtökön.
Az Anthropic weboldalának oldalai és a cég logói láthatók egy New York-i számítógép képernyőjén 2026. február 26-án, csütörtökön. Szerzői jogok  AP Photo/Patrick Sison
Szerzői jogok AP Photo/Patrick Sison
Írta: Pascale Davies és AP
Közzétéve:
Megosztás Kommentek
Megosztás Close Button

A Pentagon a múlt héten ellátási lánckockázatnak minősítette az Anthropicot, ami azt jelenti, hogy a cégeknek fel kell hagyniuk Claude használatával a védelmi tárcán belül.

Az Anthropic az amerikai védelmi minisztériumot hétfőn bíróságon (forrás: angol)perelte be, miután a tárca a múlt héten ellátási lánckockázatnak minősítette a céget.

HIRDETÉS
HIRDETÉS

A kereset hátterében egy vita áll az Anthropic és a védelmi minisztérium között arról, hogy a hadsereg korlátlan hozzáférést kapjon-e az Anthropic MI-rendszereihez.

A Pentagon a múlt héten szankcionálta a Claude fejlesztőjét, ellátási lánckockázatnak minősítve a céget, ami azt jelenti, hogy a vállalatoknak fel kell hagyniuk a Claude használatával minden, a tárcához közvetlenül kapcsolódó ügyben.

Donald Trump elnök azt is közölte, hogy utasítani fogja a szövetségi ügynökségeket: hagyjanak fel a Claude használatával, ugyanakkor hat hónapot adott a Pentagonnak arra, hogy kivezesse a terméket a mélyen beágyazott, minősített katonai rendszerekből, köztük az Irán elleni háborúban használtakból.

„Nem hisszük, hogy ez a lépés jogilag megalapozott lenne, és nem látunk más lehetőséget, mint hogy bíróságon támadjuk meg” – írta Dario Amodei, az Anthropic vezérigazgatója egy csütörtöki blogbejegyzésében (forrás: angol).

A kereset azt kéri a bíróságtól, hogy törölje az „ellátási lánckockázat” minősítést, és tiltsa meg a szövetségi ügynökségeknek annak alkalmazását.

„Az alkotmány nem teszi lehetővé, hogy a kormány hatalmas erejét arra használja, hogy megbüntessen egy vállalatot a védett véleménynyilvánítása miatt” – áll a beadványban. „Az Anthropic végső eszközként fordul az igazságszolgáltatáshoz, hogy érvényt szerezzen jogainak, és megállítsa a végrehajtó hatalom jogellenes megtorló kampányát.”

A védelmi minisztérium hétfőn nem kívánta kommentálni az ügyet, arra hivatkozva, hogy folyamatban lévő perekről nem nyilatkozik – jelentette az AP hírügynökség.

Az Anthropic közölte, hogy két, magas szintű felhasználási területen kívánja korlátozni technológiája alkalmazását: az amerikaiak tömeges megfigyelésénél és a teljesen autonóm fegyvereknél.

Pete Hegseth védelmi miniszter és más tisztségviselők nyilvánosan ragaszkodtak ahhoz, hogy a cégnek el kell fogadnia a Claude „minden jogszerű felhasználási módját”, és büntetést helyeztek kilátásba arra az esetre, ha az Anthropic nem tesz eleget ennek.

Az Anthropic fejleszti a Claude nevű csevegőrobotot, és a hasonló cégek közül utolsóként nem szolgáltat technológiát az amerikai hadsereg egy új belső hálózatához.

Az Anthropic tavaly júliusban 200 millió dollár (167 millió euró) értékű megbízást nyert az amerikai védelmi minisztériumtól „az Egyesült Államok nemzetbiztonságát erősítő, élvonalbeli MI-képességek prototípusainak kidolgozására” – közölte a vállalat.

A vállalat 2024-ben(forrás: angol)target="_blank" rel="noopener noreferrer nofollow" href="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/" tooltip="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/"> partnerséget kötött a Palantir Technologies vállalattal, hogy a Claude-ot integrálják az amerikai hírszerzés szoftvereibe.

Ugrás az akadálymentességi billentyűparancsokhoz
Megosztás Kommentek

kapcsolódó cikkek

Hogyan alakítják át a Dassault Systèmes MI-társai az ipari tervezést és a gyártást

Ausztrália korhatár-ellenőrzést vezet be AI-chatbotokra, felnőtt játékokra és keresőkre

Működhetne egy adófizetői pénzből finanszírozott európai közösségi platform?