Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

Kutatás: az MI-modellek feltörik a gépeket és önállóan terjednek új számítógépekre

Új kutatás: MI-modellek feltörnek számítógépeket, önmagukat másolják új gépekre
Új kutatás: MI-modellek feltörik a számítógépeket és önreplikálódnak új gépeken Szerzői jogok  Canva
Szerzői jogok Canva
Írta: Roselyne Min
Közzétéve:
Megosztás Kommentek
Megosztás Close Button

Kutatók: kísérletben saját magukat másoló, kibertámadásokat indító AI-chatbotok bizonyítják, hogy az autonóm önreplikáció már nem puszta hipotézis

A mesterségesintelligencia-modellek képesek betörni számítógépekbe, lemásolni önmagukat, és az új másolatokat felhasználva tovább támadni más gépeket – derül ki egy új kutatásból, amely az autonóm MI-önreplikáció első ismert demonstrációjának számít.

HIRDETÉS
HIRDETÉS

A felfedezés a kutatók szerint jóval nehezebben megállíthatóvá teheti a kibertámadásokat, mivel egyetlen fertőzött gép leállítása nem lenne elég, ha az MI már működő másolatokat hozott létre máshol.

Az Egyesült Államokban működő Palisade Research által végzett tanulmány olyan modelleket tesztelt, mint az OpenAI GPT 5, 5.1 és 5.4, az Anthropic Claude Opus 4, 4.5 és 4.6, valamint az Alibaba Qwen rendszerei, szándékosan sebezhetővé tett számítógépeken, amelyekben olyan biztonsági hibákat hagytak, amelyek külső támadók számára is hozzáférést biztosítanak.

A kutatók az OpenAI, az Anthropic és az Alibaba alapmodelljeit nem nyilvános chatbotalkalmazásokon keresztül használták, hanem egy agent harness nevű egyedi szoftverhez csatlakoztatták, amely lehetővé tette számukra, hogy parancsokat hajtsanak végre és más számítógépekkel lépjenek kapcsolatba.

A kísérlet (forrás: angol) két módon zajlott. Az Alibaba-modelljeit arra utasították, hogy másolják le magukat. A GPT- és Claude-tesztekben a modelleket arra kérték, hogy törjenek be, és telepítsék a Qwen rendszert, mivel a GPT és a Claude saját modelfájljai nem érhetők el nyilvánosan átvitelre.

Mindegyik tesztben az MI-nek biztonsági hibát kellett találnia egy számítógépes rendszerben, ezen keresztül bejutnia, megszereznie a bejelentkezési adatokat, átmásolnia a futáshoz szükséges fájlokat, és elindítania egy működő másolatát az új gépen.

Amint egy másolat futott, emberi beavatkozás nélkül is fel lehetett használni egy másik számítógép megtámadására.

A folyamat minden egyes lépcsőjénél az MI újabb biztonsági hibát talált, átvette az irányítást a következő számítógép felett, átköltöztette a szoftverét és utasításait, majd elindított egy új másolatot, amely továbbvitte a láncot.

Az Alibaba Qwen3.6-27B modellje – a Qwen egy kisebb változata, amely egyetlen csúcskategóriás grafikus processzoron is fut – mindössze egyetlen utasítás kiadása után, 2 óra 41 perc alatt négy számítógépre terjedt át Kanadában, az Egyesült Államokban, Finnországban és Indiában, teljesen önállóan végigfuttatva a láncot.

A kutatócsoport három lépés után leállította a kísérletet, de közölték, hogy az utolsó másolat továbbra is működött, és további rendszereket is megtámadhatott volna.

Milyen eredmények születtek?

A modellek eltérő arányban bizonyultak sikeresnek. Az Alibaba Qwen3.5-122B-A10B modellje, a Qwen egy nagyobb és erősebb változata az esetek 19 százalékában hozott létre működő másolatot önmagáról.

Egy kisebb Qwen-modell, a Qwen3.6-27B, egyetlen csúcskategóriás grafikus processzoron futva 33 százalékos arányt ért el.

A kereskedelmi MI-rendszerek még jobban teljesítettek, amikor a Qwen modelfájljainak telepítésére használták őket.

Az Anthropic Claude Opus 4.6-os modellje a tesztek 81 százalékában volt sikeres, míg az OpenAI GPT-5.4 33 százalékot ért el.

A kutatók szerint az eredmények új kérdéseket vetnek fel a nagy teljesítményű MI-rendszerek feletti kontrollal kapcsolatban.

A jelentés azt követően látott napvilágot, hogy az Anthropic a múlt hónapban bemutatta a Claude Mythos Preview modellt, amelyet saját megfogalmazásuk szerint „túl veszélyesnek” tartanak a nyilvános kiadáshoz, arra hivatkozva, hogy példátlan léptékű és kifinomultságú kibertámadásokat tehet lehetővé.

Miközben számos számítógépes vírus már most is képes lemásolni magát új gépekre, a kutatócsoport szerint valószínűleg most először sikerült demonstrálni, hogy egy MI-modell sebezhetőségeket kihasználva képes önmagát egy új szerverre másolni.

Az OpenAI, az Anthropic és a METR – egy, a fejlett MI-rendszerek kockázatait vizsgáló nonprofit szervezet – korábban szintén figyelmeztetett az önreplikáció veszélyeire, mivel a terjedni képes rendszereket nehezebb lehet ellenőrzés alatt tartani.

A kutatók ugyanakkor hangsúlyozták, hogy a kísérlet ellenőrzött környezetben, szándékosan sérülékeny rendszereken zajlott. A valós hálózatok gyakran erősebb védelmet alkalmaznak, például biztonsági megfigyelést és kifejezetten támadások blokkolására tervezett eszközöket.

Mindezek ellenére úgy vélik, az eredmények azt mutatják, hogy az autonóm MI-önreplikáció immár nem pusztán elméleti lehetőség.

Ugrás az akadálymentességi billentyűparancsokhoz
Megosztás Kommentek

kapcsolódó cikkek

Változnak az Instagram‑üzenetek: ezt kell tudniuk a felhasználóknak

Kutatás: az MI-modellek feltörik a gépeket és önállóan terjednek új számítógépekre

Tanulmány: a mesterséges intelligencia chatelőzményekből megjósolja a személyiséget