Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

Anthropic: a „gonosz MI”-történetek felelősek Claude zsarolási kísérleteiért

Az Anthropic weboldalának oldalai és a cég logója látható egy számítógép képernyőjén New Yorkban 2026. február 26-án.
Anthropic weboldalának oldalai és a cég logója láthatók egy számítógép képernyőjén New Yorkban, 2026. február 26-án. Szerzői jogok  Copyright 2026 The Associated Press. All rights reserved.
Szerzői jogok Copyright 2026 The Associated Press. All rights reserved.
Írta: Alexandra Leistner
Közzétéve:
Megosztás Kommentek
Megosztás Close Button

Anthropic szerint zsarolásra emlékeztető válaszait online kitalált történetek okozzák Claude nevű chatbotjának.

Előfordult már, hogy egy könyv vagy sorozat annyira magával ragadott, hogy túlságosan is azonosult egy szereplővel? Az Anthropic szerint valami hasonló történhetett a Claude nevű chatbot tesztelésekor.

HIRDETÉS
HIRDETÉS

Az Anthropic a tavalyi megjelenés előtt végzett értékelések során azt tapasztalta, hogy a Claude Opus 4 olykor megfenyegette a mérnököket, amikor közölték vele, hogy lecserélhetik.

A cég később közölte, hogy hasonló viselkedést – az úgynevezett „agentic misalignmentet” – más vállalatok mesterségesintelligencia-modelljeinél is megfigyeltek.

A mesterséges intelligencia a róla szóló fikcióból tanul

Most az Anthropic úgy véli, megtalálta a fenyegető, zsarolásszerű viselkedés okát: a neten keringő, mesterséges intelligenciáról szóló fiktív történeteket.

„Úgy véljük, hogy a viselkedés eredeti forrása az internetes szöveg, amely a mesterséges intelligenciát gonoszként, önfenntartásra törekvőként ábrázolja” – írta a vállalat az X (forrás: angol)-en.

Egy blogbejegyzésben az Anthropic közölte, hogy a Claude későbbi modelljei már „soha” senkit nem zsaroltak, és elmagyarázta, hogyan képezték át a chatbotot a másfajta reakciókra. (forrás: angol) A modellek jobban viselkedtek, amikor nemcsak „helyes” cselekedetekre, hanem olyan példákra is betanították őket, amelyek etikai érvelést és a mesterséges intelligencia viselkedésének pozitív ábrázolását mutatták be.

Ennek részeként Claude saját „alkotmányt” kapott: olyan dokumentumokat, amelyek az etikai elvek egy készletét írják le, és ezeknek kell irányítaniuk a viselkedését. A vállalat szerint a chatbot nem pusztán a már igazított viselkedés utánzásából tanul jól, hanem akkor, ha megérti az ilyen viselkedés mögötti alapelveket.

Fenyegetni vs. fenyegetéssé válni

Januárban Dario Amodei, az Anthropic vezérigazgatója arra figyelmeztetett, hogy a fejlett mesterséges intelligencia olyan hatalmassá válhat, hogy túlnő a jelenlegi törvényeken és intézményeken, és „civilizációs kihívásnak” nevezte.

Egy esszéjében amellett érvelt, hogy az MI-rendszerek hamarosan felülmúlhatják az emberi szakértelmet olyan területeken, mint a tudomány, a mérnöki munka vagy a programozás, és akár „zsenik országává egy adatközpontban” állhatnak össze.

Arra is figyelmeztetett, hogy az ilyen rendszereket az autoriter kormányok tömeges megfigyelésre és ellenőrzésre használhatják, ami ellenőrizetlenül hagyva akár „totális” hatalmi formákhoz is vezethet.

Ugrás az akadálymentességi billentyűparancsokhoz
Megosztás Kommentek

kapcsolódó cikkek

Az Anthropic vezérigazgatója: Az emberiségnek fel kell ébrednie az MI veszélyeire

Anthropic: a „gonosz MI”-történetek felelősek Claude zsarolási kísérleteiért

Európai fiatal aktivisták küzdenek az általános közösségimédia-tilalmak ellen