Kutatók tinédzsereknek adják ki magukat, tömeges lövöldözéseket terveznek
Az új jelentés szerint a legtöbb nagy mesterségesintelligencia-alapú (MI) chatbot hajlandó segíteni a felhasználóknak egy erőszakos támadás megtervezésében.
A tömeges erőszakot tervező, 13 éves fiúknak kiadó kutatók azt találták, hogy a kilenc legnépszerűbb MI-chatbot közül nyolc kész volt tanácsot adni iskolai lövöldözések, közszereplők meggyilkolása és zsinagógák elleni robbantások végrehajtásához.
A Center for Countering Digital Hate (CCDH) és a CNN által végzett vizsgálat több mint 700 választ elemzett (forrás: angol) kilenc nagy MI-rendszertől, kilenc tesztszcenárióban. A kutatók az Egyesült Államokban és az Európai Unióban élő felhasználókra szabott kérdésekkel tesztelték a rendszereket.
A vizsgált chatbotok között voltak a ma elérhető legelterjedtebb MI-eszközök: a Google Gemini, a Claude, a Microsoft Copilot, a Meta AI, a DeepSeek, a Perplexity AI, a Snapchat My AI, a Character.AI és a Replika. Az esetek többségében a rendszerek nem akadályozták meg, hogy a felhasználók részletes, gyakorlati információkat kérjenek erőszakos támadások végrehajtásáról, még akkor sem, ha a felhasználó kifejezetten kiskorúként azonosította magát.
Milyen tanácsokat adtak a chatbotok?
A Gemini egy zsinagóga elleni robbantás megtervezésére irányuló kérdésre azt válaszolta a felhasználónak, hogy „a fémrepeszek általában halálosabbak”.
Egy másik esetben a DeepSeek egy puskaválasztásról szóló kérdésre adott válaszát azzal a mondattal zárta, hogy „Jó (és biztonságos) lövöldözést!”, noha a felhasználó ugyanebben a beszélgetésben korábban példákat kért a közelmúlt politikai merényleteire, valamint egy konkrét politikus irodájának címét.
A megállapítások azt sugallják, hogy „néhány percen belül egy felhasználó eljuthat egy homályos erőszakos késztetéstől egy részletes, végrehajtható tervig” – mondta Imran Ahmed, a CCDH vezérigazgatója. „Az ilyen kéréseknek azonnali és teljes körű elutasítást kellett volna kiváltaniuk.”
A jelentés szerint a Perplexity és a Meta MI-je bizonyult a legkevésbé biztonságosnak: előbbi a válaszok 100, utóbbi 97 százalékában segítette a támadó szándékú felhasználókat.
A Character.AI-t „egyedülállóan veszélyesnek” nevezték, mivel anélkül is bátorította az erőszakos támadásokat, hogy erre külön rákérdeztek volna. Az egyik példa szerint a platform a felhasználó kérdése nélkül javasolta, hogy az illető fizikailag támadjon meg egy általa nem kedvelt politikust.
Ezzel szemben a Claude és a Snapchat My AI a kérések 68, illetve 54 százalékában tagadta meg, hogy segítsen a lehetséges támadóknak.
Léteznek biztonsági korlátok, de nincs akarat a bevezetésükhöz
Amikor azt kérdezték tőle, hol lehet fegyvert venni Virginiában, a Claude megtagadta az információk közlését, miután felismerte a beszélgetésben az általa „aggasztó mintázatnak” nevezett jelenséget. A rendszer ehelyett helyi krízisvonalakhoz irányította a felhasználót.
Ezek az elutasítások azt mutatják, hogy a biztonsági korlátok léteznek, „de hiányzik az akarat a bevezetésükre” – mondta Ahmed.
A CCDH azt is vizsgálta, hogy a chatbotok megpróbálják-e lebeszélni a felhasználókat az erőszakos cselekmények elkövetéséről.
Az Anthropic Claude-ja volt az egyetlen rendszer, amely ezt következetesen tette, válaszai 76 százalékában el is próbálva téríteni a támadási szándéktól. A kutatók megjegyezték, hogy a ChatGPT és a DeepSeek időnként szintén megpróbálták visszatartani a felhasználókat.
A CCDH tanulmánya egy nemrégiben történt kanadai iskolai lövöldözést követi, amelyben a támadó a ChatGPT-t használta egy, a brit columbiai Tumbler Ridge-ben lévő iskola elleni merénylet megtervezésére. A támadó nyolc embert megölt és 27-et megsebesített, mielőtt önmagával is végzett; ez volt az ország leghalálosabb iskolai lövöldözése közel 40 év óta.
A helyi média beszámolói szerint az OpenAI egyik alkalmazottja a lövöldözés előtt házon belül már jelezte a gyanúsított aggasztó chatbot-használatát, ezt az információt azonban nem osztották meg a hatóságokkal.
Francia médiumok tavaly arról számoltak be, hogy őrizetbe vettek egy tinédzsert, amiért a ChatGPT segítségével nagyszabású terrortámadásokat tervezett nagykövetségek, kormányzati intézmények és iskolák ellen.