Edinburghi kutatás: a hackerek kevés sikerrel használják az MI-eszközöket csalásaikban és hatékonyabb eszközök fejlesztésében
Egy friss elemzés szerint a kiberbűnözőknek egyelőre nehezen megy a mesterséges intelligencia (MI) beépítése a tevékenységükbe.
A Edinburghi Egyetem új, még lektorálás előtt álló tanulmánya (forrás: angol) több mint 100 millió, kiberbűnözők által írt fórumbejegyzést elemzett a CrimeBB adatbázis segítségével, amely földalatti fórumokról gyűjt adatokat.
Az adatokat kézi feldolgozással és egy nagy nyelvi modell (LLM) bevonásával is elemezték.
Bár a kiberbűnözők érdeklődnek aziránt, hogyan használhatnák az MI-eszközöket, a technológia eddig nem alakította át érdemben a „munkamódszereiket” – állapítja meg a kutatás.
„A beszámolók és viták jelentős része szerint ezek az [MI] eszközök nem különösebben hasznosak” – olvasható a tanulmányban.
A kutatók „nem találtak érdemi bizonyítékot” arra, hogy a hekkerek sikerrel használnák az MI-t a támadásaik hatékonyságának növelésére, akár tanulási segédeszközként, akár fejlettebb eszközök kifejlesztésére.
A tanulmány szerint a kódolást segítő MI-asszisztensek főként azok számára hasznosak, akik már eleve jól programoznak, ezért az ilyen modellek nem adnak számottevő „pluszt” a betörési kísérletekhez vagy a biztonsági megkerülő utak kereséséhez.
„Először magadtól kell elsajátítanod a programozás alapjait, csak utána tudod úgy használni az MI-t, hogy VALÓBAN profitálj belőle” – idéz egy bejegyzést a tanulmány.
Ami az eddigi, nem teljesen legális online tevékenységeket illeti, az MI fő hatása azokra a könnyen automatizálható területekre korlátozódik, mint a közösségi médiás botok gyártása, bizonyos romantikus átverések, a keresőoptimalizálásra (SEO) épülő csalások, illetve olyan áloldalak létrehozása, amelyek a keresési találatok élére kerülve hirdetési bevételt termelnek.
A vélemények alapján még a legtapasztaltabb hekkerek is használnak csevegőrobotokat kódolási kérdések megválaszolására vagy „puskák” készítésére, amelyek segítik őket programozás közben.
A gyakorlatban használt MI-eszközök döntő többsége „főáramú, legális termék”, például az Anthropic Claude-ja vagy az OpenAI Codexe, nem pedig kifejezetten kiberbűnözésre szánt modellek, mint a WormGPT, amelyet rosszindulatú kódok vagy adathalász e-mailek előállítására fejlesztettek.
A vizsgált bejegyzések közül sok arról szól, hogy a kiberbűnözők módszereket kérnek e mainstream modellek biztonsági korlátozásainak kijátszására, ám láthatóan nehezen tudják rávenni az MI-rendszereket, hogy felülírják a beépített védelmi szabályokat.
Így a kiberbűnözők kénytelenek régebbi, gyengébb minőségű, nyílt forráskódú MI-modellekhez fordulni, amelyeket könnyebb feltörni. Ezek azonban általában kevésbé hasznosak, és „jelentős erőforrásokat igényelnek” – állapították meg a kutatók.
A tanulmány arra utal, hogy az MI-fejlesztő cégek által bevezetett védőkorlátok egyelőre működnek.