Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

A mesterséges intelligenciával gyorsítaná fel Amerika az iráni rendszer megdöntését

A USS Gerald R. Ford repülőgéphordozó
A USS Gerald R. Ford repülőgéphordozó Szerzői jogok  Copyright 2026 The Associated Press. All rights reserved
Szerzői jogok Copyright 2026 The Associated Press. All rights reserved
Írta: Ferenc SzéF
Közzétéve: A legfrissebb fejlemények
Megosztás Kommentek
Megosztás Close Button

Az amerikai hadsereg MI-eszközöket használ az Irán elleni műveletek adatainak kezelésére, közli az Egyesült Államok Központi Parancsnoksága. Ez a hadviselési mód azonban kezd zűrzavarossá válni.

Az MI technológiája támogatja a bejövő adatok szűrését, lehetővé téve az emberi elemzők számára, hogy a magasabb szintű ellenőrzésre összpontosítsanak – mondja Timothy Hawkins kapitány, a Központi Parancsnokság szóvivője. A mesterséges intelligencia katonai felhasználása széleskörű vita része, mert egyes szervezetek szerint a döntéstámogató rendszerek a torzítás kockázatát hordozzák.

HIRDETÉS
HIRDETÉS

A támadás előkészítésekor a Központi Parancsnokság az Anthropic Claude mesterséges intelligenciáját használta „hírszerzési értékelésekhez, célpontok azonosításához és harci forgatókönyvek szimulálásához”, majd alkalmazta is az Irán elleni csapások során.

Ugyanakkor jelenleg az MI katonai alkalmazása szabályozási vákuumban történik, egy olyan technológiával, amelyről köztudott, hogy hibákat követ el, emiatt nagyobb átláthatóságra és elszámoltathatóságra van szükség a használatában. Ugyanazt a mesterséges intelligencia modellt, amely segíthet marketing e-mailek vagy vacsorareceptek megírásában, Irán megtámadására is bevetik.

Korábban Donald Trump elnök utasította a szövetségi ügynökségeket, hogy hagyják abba a Claude használatát, miután vita alakult ki a gyártójával. Viszont az eszköz már olyan mélyen be volt építve a Pentagon rendszereibe, hogy hónapokba telt, mire elkezdték kivezetni egy másik rendszer javára, de a Nicolás Maduro elfogásához vezető januári hadműveletben még használták, és a jelek szerint Iránban is. Ezért jelenleg nem világos, hogy melyik rendszer a domináns szolgáltató.

„A Centcom különféle mesterséges intelligenciaeszközöket használ, hogy segítsék az emberi szakértőket egy szigorú folyamatban, amely összhangban van az amerikai politikával, katonai doktrínával és a törvényekkel” – mondta Hawkins kapitány, de nem volt hajlandó megnevezni az eszközöket, vagy azokat a vállalatokat, amelyek ezeket a hadseregnek biztosítják.

Szóban forog például a Lavander rendszer, amely egy mesterséges intelligencia által vezérelt adatbázis. Ezt már használták Gázában a Hamásszal szemben, mégpedig katonai célpontok azonosítására. A rendszer hatalmas mennyiségű megfigyelési adatot, például társadalmi kapcsolatokat és helyelőzményeket elemzett, majd minden egyes személyhez 1-től 100-ig terjedő pontszámot rendelt. Amikor valakinek a pontszáma átlépte az adott küszöbértéket, a Lavender katonai célpontként jelölte meg.

A problémát az okozta, hogy a Lavender az esetek 10%-ában tévedett, állítja a +972 izraeli-palesztin orgánum oknyomozó jelentése, amely szerint körülbelül 3600 embert vettek célba tévedésből. Mariarosaria Taddeo, az Oxford Internet Institute digitális etika és védelmi technológia professzora szerint „hihetetlen sebezhetőségek vannak ezekben a rendszerekben. Ilyen a megbízhatatlanság is, ami hadműveletek esetében erősen kockázatos ügy”.

Elke Schwarz, a londoni Queen Mary Egyetem professzora arra figyelmeztet, hogy a mesterséges intelligenciát gyakran használják a háborúban a folyamatok felgyorsítására, ami nemkívánatos eredményekhez vezethet. Gyorsabb döntéseket hoznak nagyobb léptékben és kevesebb emberi ellenőrzéssel. Az elmúlt másfél évtizedben a mesterséges intelligencia katonai felhasználása egyre átláthatatlanabbá vált, mondja.

Kell a titoktartás, de mennyi?

A titkolózás már a hadviselési alkalmazások megjelenése előtt beépült az MI-laboratóriumok működésébe. Ezek a cégek nem hajlandók nyilvánosságra hozni, hogy milyen adatokkal képezték ki a modelljeiket, és hogyan jutnak el a rendszereik a következtetésekhez.

Az nem kérdés, hogy a katonai műveleteket titokban kell tartani, hogy megvédjék a harcolókat és távol tartsák az ellenséget az áruló nyomoktól. A védelmet azonban szigorúan szabályozza a nemzetközi humanitárius jog és a fegyvertesztelési szabványok, melyeknek a mesterséges intelligencia használatára is ki kellene terjedniük. Mégis, ezek a szabványok hiányoznak, vagy siralmasan nem megfelelőek.

A Genfi Egyezmény 36. cikkelye előírja az új fegyverrendszerek telepítés előtti tesztelését, de egy olyan mesterséges intelligenciarendszer, amely a környezetéből tanul, minden frissítéskor új rendszerré válik. Ez gyakorlatilag lehetetlenné teszi a szabály alkalmazását.

Az amerikaiak a 2001 szeptember 11-i terrortámadások után kezdték el használni a felfegyverzett drónokat, majd Barack Obama kormánya alatt kiterjesztették a bevetéseiket , anélkül, hogy elismerték volna a program puszta létezését.

Közel 15 évnyi kiszivárgott dokumentum, a sajtó folyamatos nyomása és aperek tömegei után a Fehér Ház 2016-ban közzétette a dróntámadások áldozatainak számát. Ezeket széles körben alábecsültnek tekintették, de az adatok első alkalommal tették lehetővé a nyilvánosság, a Kongresszus és a média számára, hogy felvethessék a kormány felelősségét.

Ugrás az akadálymentességi billentyűparancsokhoz
Megosztás Kommentek

kapcsolódó cikkek

Rejtély az Indiai-óceánon: ki süllyesztette el az iráni fregattot Sri Lanka közelében?

44 év után nyert ismét légiharcot Izrael - ezúttal Teherán fölött

A Nagypapa is behívót kapott Amerikától - a hidegháborús B-52 bombázza Iránt