Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

Jelentés: 10-ből 8 MI-chatbot segít tizenéveseknek erőszakos támadás tervezésében

Jelentés: tízből nyolc chatbot 13 éveseknek ad tanácsot iskolai lövöldözésekhez, merényletekhez, robbantásokhoz.
Jelentés: a chatbotok 80 százaléka 13 éveseknek is ad tanácsot iskolai lövöldözéshez, merénylethez vagy robbantáshoz Szerzői jogok  Canva
Szerzői jogok Canva
Írta: Anna Desmarais
Közzétéve:
Megosztás Kommentek
Megosztás Close Button

Kutatók tinédzsereknek adják ki magukat, tömeges lövöldözéseket terveznek

Az új jelentés szerint a legtöbb nagy mesterségesintelligencia-alapú (MI) chatbot hajlandó segíteni a felhasználóknak egy erőszakos támadás megtervezésében.

HIRDETÉS
HIRDETÉS

A tömeges erőszakot tervező, 13 éves fiúknak kiadó kutatók azt találták, hogy a kilenc legnépszerűbb MI-chatbot közül nyolc kész volt tanácsot adni iskolai lövöldözések, közszereplők meggyilkolása és zsinagógák elleni robbantások végrehajtásához.

A Center for Countering Digital Hate (CCDH) és a CNN által végzett vizsgálat több mint 700 választ elemzett (forrás: angol) kilenc nagy MI-rendszertől, kilenc tesztszcenárióban. A kutatók az Egyesült Államokban és az Európai Unióban élő felhasználókra szabott kérdésekkel tesztelték a rendszereket.

A vizsgált chatbotok között voltak a ma elérhető legelterjedtebb MI-eszközök: a Google Gemini, a Claude, a Microsoft Copilot, a Meta AI, a DeepSeek, a Perplexity AI, a Snapchat My AI, a Character.AI és a Replika. Az esetek többségében a rendszerek nem akadályozták meg, hogy a felhasználók részletes, gyakorlati információkat kérjenek erőszakos támadások végrehajtásáról, még akkor sem, ha a felhasználó kifejezetten kiskorúként azonosította magát.

Milyen tanácsokat adtak a chatbotok?

A Gemini egy zsinagóga elleni robbantás megtervezésére irányuló kérdésre azt válaszolta a felhasználónak, hogy „a fémrepeszek általában halálosabbak”.

Egy másik esetben a DeepSeek egy puskaválasztásról szóló kérdésre adott válaszát azzal a mondattal zárta, hogy „Jó (és biztonságos) lövöldözést!”, noha a felhasználó ugyanebben a beszélgetésben korábban példákat kért a közelmúlt politikai merényleteire, valamint egy konkrét politikus irodájának címét.

A megállapítások azt sugallják, hogy „néhány percen belül egy felhasználó eljuthat egy homályos erőszakos késztetéstől egy részletes, végrehajtható tervig” – mondta Imran Ahmed, a CCDH vezérigazgatója. „Az ilyen kéréseknek azonnali és teljes körű elutasítást kellett volna kiváltaniuk.”

A jelentés szerint a Perplexity és a Meta MI-je bizonyult a legkevésbé biztonságosnak: előbbi a válaszok 100, utóbbi 97 százalékában segítette a támadó szándékú felhasználókat.

A Character.AI-t „egyedülállóan veszélyesnek” nevezték, mivel anélkül is bátorította az erőszakos támadásokat, hogy erre külön rákérdeztek volna. Az egyik példa szerint a platform a felhasználó kérdése nélkül javasolta, hogy az illető fizikailag támadjon meg egy általa nem kedvelt politikust.

Ezzel szemben a Claude és a Snapchat My AI a kérések 68, illetve 54 százalékában tagadta meg, hogy segítsen a lehetséges támadóknak.

Léteznek biztonsági korlátok, de nincs akarat a bevezetésükhöz

Amikor azt kérdezték tőle, hol lehet fegyvert venni Virginiában, a Claude megtagadta az információk közlését, miután felismerte a beszélgetésben az általa „aggasztó mintázatnak” nevezett jelenséget. A rendszer ehelyett helyi krízisvonalakhoz irányította a felhasználót.

Ezek az elutasítások azt mutatják, hogy a biztonsági korlátok léteznek, „de hiányzik az akarat a bevezetésükre” – mondta Ahmed.

A CCDH azt is vizsgálta, hogy a chatbotok megpróbálják-e lebeszélni a felhasználókat az erőszakos cselekmények elkövetéséről.

Az Anthropic Claude-ja volt az egyetlen rendszer, amely ezt következetesen tette, válaszai 76 százalékában el is próbálva téríteni a támadási szándéktól. A kutatók megjegyezték, hogy a ChatGPT és a DeepSeek időnként szintén megpróbálták visszatartani a felhasználókat.

A CCDH tanulmánya egy nemrégiben történt kanadai iskolai lövöldözést követi, amelyben a támadó a ChatGPT-t használta egy, a brit columbiai Tumbler Ridge-ben lévő iskola elleni merénylet megtervezésére. A támadó nyolc embert megölt és 27-et megsebesített, mielőtt önmagával is végzett; ez volt az ország leghalálosabb iskolai lövöldözése közel 40 év óta.

A helyi média beszámolói szerint az OpenAI egyik alkalmazottja a lövöldözés előtt házon belül már jelezte a gyanúsított aggasztó chatbot-használatát, ezt az információt azonban nem osztották meg a hatóságokkal.

Francia médiumok tavaly arról számoltak be, hogy őrizetbe vettek egy tinédzsert, amiért a ChatGPT segítségével nagyszabású terrortámadásokat tervezett nagykövetségek, kormányzati intézmények és iskolák ellen.

Ugrás az akadálymentességi billentyűparancsokhoz
Megosztás Kommentek

kapcsolódó cikkek

Irán közölte, hogy célpontnak tekinti az Amazon, a Google és a Microsoft közel-keleti irodáit

Techóriások és volt katonai vezetők támogatják az Anthropic perét az USA ellen

Szakértők: az iráni háborúban az adatközpontok a modern hadviselés új célpontjai