A militáns csoportok azonnal felfigyeltek az AI-ra, amint az széles körben elérhetővé vált. Az elmúlt években sűrűn használtak AI-programokat, hogy valósághűnek tűnő fotókat, videókat és harci felhívásokat tehessenek közzé. Ezt a törekvést addig kell megállítani, amíg nem késő.
Miközben a világ többi része igyekszik a fejlődés céljaira kihasználni a mesterséges intelligencia (AI) erejét, a militáns csoportok is kísérleteznek a technológiával. Még ha nem is tudják még pontosan, hogy mit kezdjenek vele, de toborzásra és hangulatkeltésre már széles körben használják.
A szélsőséges szervezetek számára a mesterséges intelligencia eszköz lehet új tagok behálózására, valósághű hamisított képek készítésére és kibertámadásaik finomítására - figyelmeztetnek nemzetbiztonsági szakértők és kémügynökségek. És ha bárki megnyugodva már elkönyvelte, hogy az Iszlám Állam (ISIS) katonailag megsemmisült, nem árt tudnia, hogy a digitális térben igenis tovább létezik, immár globális szinten.
A vasárnapi Sydney-i terrortámadás esetében még felderítésre vár, hogy a globális dzsihadista kampány mennyiben motiválta az elkövetőket a cselekmény előkőszítésére és végrehajtására.
Még nem fejlett, de nagyon törekvő
Bár a dzsihadista és szélsőséges csoportok – köztük az Iszlám Állam – még nem rendelkeznek saját, fejlett mesterséges intelligencia-kapacitásokkal, a nyíltan elérhető generatív eszközök gyors és pragmatikus átvétele már érzékelhető. A felhasználás egyelőre elsősorban alacsony komplexitású területekre korlátozódik: képgenerálásra, hangmanipulációra, automatizált fordításra és propaganda-szövegek előállítására.
Ezek a megoldások nem igényelnek mély technikai tudást vagy infrastruktúrát, mégis jelentősen csökkentik a belépési küszöböt a dezinformáció és online toborzás előtt.
A jelenség megelőzési és szabályozási kihívás a terrorelhárítás számára. Még nincs bizonyíték arra, hogy az MI mesterséges intelligencia a műveleti tervezés, a fegyveres akciók vagy célkijelölés szintjén megjelent volna a csoportok eszköztárában, de a kísérletezés ténye önmagában figyelmeztető jel. Az információs térben szerzett rutin és tapasztalat hosszabb távon átemelhető komplexebb alkalmazások felé, különösen akkor, ha az állami ellenintézkedések nem tartanak lépést a technológia terjedésével.
Éppen ezért a jelenlegi „alacsony szintű” felhasználás nem megnyugtató állapot, hanem egy korai fázis, amely időben történő beavatkozást tesz szükségessé.
Mit lehet és kell tenni?
A múlt hónapban egy ISIS-barát csoport weboldalán valaki arra buzdította a kalifátusi híveket, hogy a mesterséges intelligenciát tegyék műveleteik részévé. "Az egyik legjobb dolog a mesterséges intelligenciában az, hogy milyen könnyű használni. Egyes hírszerző ügynökségek aggódnak, hogy az MI hozzájárul a toborzáshoz, tegyük tehát a rémálmaikat valósággá" - írta a felhasználó.
Az ISIS, amely a tízes években hatalmas területeket foglalt el Irakban és Szíriában, mára az erőszakos ideológiát valló militáns csoportok decentralizált szövetsége lett. A csoportosulás már évekkel ezelőtt felismerte a közösségi média erejét, így nem meglepő, hogy teszteli az MI-t is, mondják nemzetbiztonsági szakértők.
Az elhárításnak a legnagyobb nehézséget az okozza, hogy csekély forrással rendelkező csoportok, vagy akár csak egyetlen szereplő számára a mesterséges intelligencia alkalmas lehet a propaganda és s hamisítványok tömeges terjesztésére, ami szélesíti hatókörüket és növeli befolyásukat.
"Bármely ellenfél számára a mesterséges intelligencia valóban megkönnyíti a dolgokat" - mondta John Laliberte, a Nemzetbiztonsági Ügynökség sebezhetőségi kutatója, a ClearVector kiberbiztonsági cég vezérigazgatója. "A mesterséges intelligenciával még egy kis csoport is, amelynek nincs sok pénze, képes hatást gyakorolni".
Hogyan kísérleteznek a szélsőséges csoportok?
A hamis tartalmak segítenek új híveket toborozni, összezavarni vagy megijeszteni az ellenfeleket, és olyan mértékű propagandát terjeszteni, amelyet néhány évvel ezelőtt elképzelni sem lehetett. Ilyen csoportok terjesztettek hamis képeket két évvel ezelőtt az Izrael-Hamász háborúról, amelyek véres, elhagyott csecsemőket ábrázoltak szétbombázott épületekben. A hamisítványok felháborodást és polarizációt keltettek, és a közel-keleti erőszakos csoportok új tagok toborzására használták fel a technikai lehetőséget, akárcsak az antiszemita gyűlöletcsoportok az Egyesült Államokban és Nyugat-Európában.
A mesterséges intelligenciával előállított tartalmak egyik legnagyobb kockázata, hogy az átlagos felhasználók számára egyre nehezebben megkülönböztethetők a valós dokumentációtól. Az így generált képek, videók és hanganyagok vizuális és érzelmi hatása azonnali és mély benyomást kelt, miközben a befogadók többsége nem rendelkezik sem technikai eszközökkel, sem motivációval a hitelesség ellenőrzésére.
A látott tartalom így sokszor maradandó érzelmi nyomot hagy, még akkor is, ha később kiderül róla, hogy hamis vagy manipulált volt. A cáfolat vagy a korrekció ritkán éri el ugyanazt a pszichológiai hatást, mint a berögzült és továbbterjesztett első benyomás, és gyakran el sem jut a felhasználóhoz. Ez különösen kedvez a szélsőséges narratíváknak, ahol a vizualitás az érzelmi indulatkeltés eszközeként működik, miközben a valóság oldalán állóknak hatalmas erőforrásokat kell mozgósítani a hazugságok leleplezésére, és ez a törekvés többnyire sikertelen.
Valami hasonló történt tavaly is, miután az ISIS egyik tagszervezete által vállalt terrortámadásban 176 ember halt meg egy moszkvai koncertteremben. A lövöldözést követő napokban az ISIS által készített propagandavideók széles körben keringtek a vitafórumokon és a közösségi médiában, új toborzókat illetve jelentkezőket keresve.
A SITE Intelligence Group, a szélsőséges tevékenységeket nyomon követő cég kutatói szerint az ISIS a saját vezetőiről is készített mélyhamisított hangfelvételeket, amelyeken a szentírást szavalják, és a mesterséges intelligenciát használták a szövegek gyors lefordítására több nyelven.
Egyelőre csak törekvés, de gyorsan lehet belőle komolyabb baj
Marcus Fowler, a CIA volt ügynöke szerint az ilyen csoportok elmaradnak Kína, Oroszország vagy Irán mögött, és a mesterséges intelligencia kifinomultabb felhasználását még mindig csak törekvésnek tekintik. „A kockázatok azonban túl nagyok ahhoz, hogy figyelmen kívül hagyjuk őket, és valószínűleg növekedni fognak az olcsó, nagy teljesítményű mesterséges intelligencia használatának terjedésével” – mondja Fowler.
A hackerek már most is használnak szintetikus hang- és videófelvételeket adathalászkampányokhoz, amelyekben magas rangú üzleti vagy kormányzati vezetőknek adják ki magukat, hogy hozzáférjenek érzékeny hálózatokhoz. A mesterséges intelligenciát rosszindulatú kódok írására vagy a kibertámadások egyes aspektusainak az automatizálására is használhatják.
Ennél is aggasztóbb az a lehetőség, hogy a militáns csoportok megpróbálhatják a mesterséges intelligenciát biológiai vagy vegyi fegyverek előállításához felhasználni, pótolva ezzel a technikai szakértelem hiányát. Ezt a kockázatot az amerikai Belbiztonsági Minisztérium idén kiadott frissített belföldi fenyegetettségi értékelésében is felvették .
A növekvő fenyegetés elhárítása
A törvényhozók számos javaslatot terjesztettek elő, mondván, hogy sürgősen cselekedni kell. Mark Warner virginiai szenátor, a szenátus hírszerzési bizottságának vezető demokrata képviselője például azt mondta, hogy az Egyesült Államoknak meg kell könnyítenie a mesterséges intelligencia fejlesztőinek, hogy megosszák egymással az információkat arról, hogy termékeiket hogyan használják a rossz szereplők, legyenek azok szélsőségesek, bűnöző hackerek vagy külföldi kémek.
A szélsőséges fenyegetésekről szóló meghallgatás során a törvényhozók megtudták, hogy az ISIS és az al-Kaida képzési workshopokat tartott, hogy segítsék támogatóikat az AI használatának megtanulásában. A képviselőházban a múlt hónapban elfogadott jogszabály előírná a belbiztonsági tisztviselők számára, hogy évente értékeljék az ilyen csoportok által jelentett mesterséges intelligencia kockázatokat.