Nyolc vezető MI-vállalat, köztük az OpenAI, a Meta, az Anthropic és a DeepSeek, nem rendelkeznek hiteles tervekkel a katasztrofális MI-kockázatok megelőzésére. Egy új tanulmány szerint.
A világ legnagyobb mesterséges intelligencia (MI) vállalatai nem teljesítik saját biztonsági vállalásaikat egy új értékelés szerint, amely arra figyelmeztet, hogy ezek a hiányosságok „katasztrofális” kockázatokkal járnak.
A jelentés akkor látott napvilágot, amikor az MI-cégek perekkel és olyan vádakkal néznek szembe, hogy chatbotjaik pszichés károkat okoznak, többek között úgy, hogy „öngyilkossági tanácsadóként” működnek, valamint MI-vel támogatott kibertámadásokról is érkeznek beszámolók.
A 2025-ös téli AI Safety Index jelentés, amelyet a Future of Life Institute (FLI) nevű nonprofit szervezet tett közzé, nyolc nagy MI-vállalatot értékelt, köztük az amerikai Anthropicot, az OpenAI-t, a Google DeepMindot, az xAI-t és a Metát, valamint a kínai DeepSeeket, az Alibaba Cloudot és a Z.ai-t.
Azt állapította meg, hogy hiányoznak a hiteles stratégiák a katasztrofális visszaélések és az MI-eszközök feletti irányítás elvesztésének megelőzésére, miközben a cégek az általános mesterséges intelligencia (AGI) és a szuperintelligencia, vagyis az embert meghaladó értelmi képességű MI felé versenyeznek.
A jelentést elemző független szakértők megállapították, hogy egyetlen vállalat sem készített tesztelhető tervet arra, miként tartható fenn az emberi kontroll a nagy képességű MI-rendszerek felett.
Stuart Russell, a Kaliforniai Egyetem (Berkeley) számítástechnika-professzora azt mondta, hogy az MI-cégek azt állítják, képesek szuperemberi MI-t építeni, de egyikük sem mutatta be, miként előzhető meg az emberi kontroll elvesztése az ilyen rendszerek esetében.
„Olyan bizonyítékot keresek, hogy képesek az irányítás elvesztésének éves kockázatát egy a százmillióhoz arányra csökkenteni, összhangban az atomerőművekre vonatkozó követelményekkel” – írta Russell. „Ehelyett elismerik, hogy a kockázat lehet egy a tízhez, egy az öthöz, sőt egy a háromhoz is, és ezeket a számokat sem megindokolni, sem javítani nem tudják.”
Hogyan szerepeltek a vállalatok?
A tanulmány hat kritikus területen mérte a cégeket: kockázatértékelés, jelenlegi károk, biztonsági keretrendszerek, egzisztenciális biztonság, irányítás és elszámoltathatóság, valamint információmegosztás.
Miközben egyes kategóriákban történt előrelépés, a független szakértői testület megállapította, hogy a végrehajtás továbbra is következetlen, és gyakran hiányzik belőle a kibontakozó globális szabványok által megkövetelt mélység.
Az Anthropicot, az OpenAI-t és a Google DeepMindot viszonylag erős átláthatóságukért, nyilvános biztonsági keretrendszereikért és a műszaki biztonsági kutatásba való folyamatos befektetéseikért dicsérték. Mégis maradtak gyenge pontok.
Az Anthropicot azért bírálták, mert leállította az úgynevezett „human uplift” kísérleteket, és alapértelmezés szerint a felhasználói interakciókon történő tanítás felé mozdult el, amit a szakértők szerint gyengít az adatvédelmi garanciákat.
Az OpenAI-t homályos biztonsági küszöbértékeiért, az állami szintű MI-biztonsági jogszabályok ellen folytatott lobbizásáért és az elégtelen független felügyeletért érte kritika.
A Google DeepMind biztonsági keretrendszere javult a jelentés szerint, de továbbra is olyan külső értékelőkre támaszkodik, akiket a vállalat pénzügyileg kompenzál, ami csorbítja függetlenségüket.
„Mindhárom éllovas cég esetében mutatkoznak jelenlegi ártalmak a közelmúlt botrányai miatt: pszichés károk, gyermekek öngyilkosságai, az Anthropic elleni hatalmas hekkertámadás, és mindháromnak van még hova fejlődnie” – mondta Max Tegmark, az FLI elnöke és a Massachusetts Institute of Technology (MIT) professzora az Euronews Nextnek.
A fennmaradó öt vállalat egyenetlen, de figyelemre méltó előrelépést mutatott a jelentés szerint. Ugyanakkor arra figyelmeztetett, hogy továbbra is bőven van tér a javulásra.
Az xAI közzétette első, strukturált biztonsági keretrendszerét, ám az értékelők szerint ez szűk, és hiányoznak belőle az egyértelmű beavatkozási küszöbök.
A Z.ai volt az egyetlen vállalat, amely engedte külső biztonsági értékeléseinek cenzúrázatlan publikálását, de azt ajánlották számára, hogy tegye nyilvánossá teljes biztonsági keretrendszerét és irányítási struktúráját, egyértelmű kockázati területekkel, enyhítő intézkedésekkel és döntéshozatali folyamatokkal.
A Meta új „frontier safety” keretrendszert vezetett be kimenetalapú küszöbértékekkel, ám a bírálók szerint tisztázni kellene a módszertanokat, és megosztani robusztusabb belső és külső értékelési folyamatokat.
A DeepSeeket az alkalmazottak belső érdekérvényesítéséért méltatták, de továbbra is hiányzik az alapvető biztonsági dokumentáció.
Az Alibaba Cloudról megállapították, hogy hozzájárult a vízjelezési követelményekre vonatkozó kötelező nemzeti szabványokhoz, ám javíthatna a modellek robusztusságán és megbízhatóságán az igazságtartalomra, a méltányosságra és a biztonságra vonatkozó mérőszámokon elért teljesítmény javításával.
Az Euronews Next megkereste a vállalatokat, hogy reagáljanak a jelentésre, de a cikk megjelenéséig nem érkezett válasz.
„Kevesebb szabályozás vonatkozik rá, mint a szendvicsekre”
„Remélem, túllépünk azon, hogy a vállalatok pusztán a hírnevükre támaszkodva növekedjenek,” mondta Tegmark.
„Amikor rákérdeztünk a cégek AGI feletti kontrollra vonatkozó terveire, egyiküknek sem volt terve,” tette hozzá.
Közben olyan techcégek, mint a Meta, hívószóként használják a szuperintelligenciát, hogy felhajtást keltsenek legújabb MI-modelljeik körül. Idén a Meta a nagy nyelvi modellekkel (LLM) foglalkozó részlegét Meta Superintelligence Labsnak nevezte el.
Tegmark szerint nagy elmozdulás történt az AGI-ról és a szuperintelligenciáról szóló vitákban. Míg a technológusok egykor százéves távlatban beszéltek róla mint valós lehetőségről, ma már azt mondják, akár a következő néhány évben bekövetkezhet.
„Az MI-t [az Egyesült Államokban] kevesebb szabályozás érinti, mint a szendvicseket, és továbbra is folyik a lobbizás a kormányzatban a kötelező biztonsági szabványok ellen,” mondta.
Ugyanakkor Tegmark megjegyezte, hogy példa nélküli ellenreakció bontakozik ki az ellen, hogy az AGI és a szuperintelligencia ellenőrizetlen maradjon.
Októberben több ezer közéleti szereplő, köztük MI- és technológiai vezetők, arra szólították fel az MI-cégeket, hogy lassítsák a szuperintelligencia utáni versenyüket.
A FLI által szervezett petíció a politikai spektrum egészéről gyűjtött aláírásokat, köztük Steve Bannon (Donald Trump korábbi főstratégája), Susan Rice (az Obama-kormány korábbi nemzetbiztonsági tanácsadója), vallási vezetők és számos volt politikus, valamint neves informatikusok aláírásait.
„Mi a közös ezekben az emberekben? Egy nyilatkozatban megegyeztek. Szerintem rendkívül jelentős, hogy Trump mély MAGA-bázisa, a vallási vezetők, a baloldal és a szakszervezeti mozgalmak valamiben egyetértenek,” mondta Tegmark.
„A szuperintelligencia minden egyes dolgozót megélhetésképtelenné tenne, mivel a robotok minden munkát elvégeznének. Az emberek a kormánytól kapott juttatásoktól függenének; a jobboldal ezt segélyként látná, a baloldal pedig 1984-es típusú kormányként,” mondta. „Úgy gondolom, most egyre inkább kiéleződik a helyzet.”