Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

Ahogy Ukrajna Oroszország elleni háborúja elhúzódik, a mesterséges intelligencia által generált videók célja aláásni a katonák morálját

Képek a közösségi médiában keringő AI-generált, ukrán katonákról készült videókból
Képek a közösségi médiában keringő AI-generált, ukrán katonákról készült videókból Szerzői jogok  @Sensity, TikTok, Telegram
Szerzői jogok @Sensity, TikTok, Telegram
Írta: Estelle Nilsson-Julien & Tamsin Paternoster
Közzétéve:
Megosztás Kommentek
Megosztás Close Button
Másolja a cikk videójának embed-kódját Copy to clipboard Hivatkozás másolva!

Oroszország az ukrán katonákról készült, mesterséges intelligencia által generált videókat használ arra, hogy az országot gyengének állítsa be, és aláássa a központi parancsnokságba vetett bizalmat.

A közösségi médiában közzétett videón egy kétségbeesett ukrán katona pásztázza a kamerát, hogy lássa a halott és sebesült katonák holttesteivel kirakott árkokat. Ezek a videók azt a dermesztő valóságot mutatják be, amelyet sok ukrán tapasztal a frontvonalon az orosz csapatok ellen harcoló ukránok körében - ami a modernkori hadviselés kulcsfontosságú eleme.

HIRDETÉS
HIRDETÉS

A valóságban azonban ezek a széles körben megosztott felvételek valójában mesterséges intelligencia által generáltak, amint azt a Sensity AI törvényszéki mesterséges intelligencia detektálással foglalkozó vállalat igazolta.

A Sensity kutatói arra figyelmeztetnek, hogy a deepfake-eket a közvélemény manipulálására és a hadseregbe vetett bizalom aláásására használják, a mindennapi életüket a terepről dokumentáló ukrán katonákról készült hiteles videók hátterében.

A klipeket úgy állítják be, hogy hiteles frontfelvételeknek tűnjenek. Egy másik közösségi médiás videón például egy katona látható, aki az ukrán hadsereg katonai vezetését kritizálja.

"Nem akarok nekik szolgálni" - mondja a videón a katona. "És nincs is szükségem rájuk".

A Sensity több mint 1000 hasonló videót talált a közösségi médiában szétszórva, és azonosította a mesterséges intelligencia által manipulált 60 videóból álló központi adathalmazt.

Ezek a videók mesterséges intelligencia által generált arcokat, valamint természetellenes hangokat tartalmaznak. Egyes esetekben a hiteles felvételeket AI által generált elemekkel kombinálják, ami megnehezíti az ellentmondások felismerését.

A TikToktól a Pravdáig

A Sensity szerint ezeknek a videóknak van egy következetes mintájuk, hogy biztosítsák, hogy széles körben elterjedjenek a közösségi médiában, elárasztva a felhasználók feedjét. A Sensity által elemzett tételben a videókat jellemzően újonnan létrehozott vagy névtelen fiókokról töltik fel az olyan platformokra, mint a TikTok vagy a Telegram.

Amint elkezdenek elköteleződést: nézettséget, kedvelést és kommenteket vonzani, újra közzéteszik őket olyan platformokon, mint az X, a Facebook, az Instagram és a YouTube. Ezeken a platformokon az algoritmusok az érzelmekkel teli tartalmakat azzal jutalmazzák, hogy tovább terjesztik azokat a felhasználók idővonalán.

Ez a videó, amelyben az ukrán katonák azt állítják, hogy nem kaptak kommunikációt a parancsnokságuktól, arccserélő technológiával készült.
Ez a videó, amelyben ukrán katonák elmondják, hogy nem kaptak kommunikációt a parancsnokságuktól, arccserélő technológiával készült. Cleared

Miután az elbeszélés a közösségi médiában elterjedt, a Sensity jelentése szerint oroszbarát katonai bloggerek vagy Kreml-barát médiaoldalak, például a Pravda hálózat átveszik a tartalmat.

A morál aláásása

Bár a videók különbözőek, hasonló narratívákat tolmácsolnak azzal a szándékkal, hogy befolyásolják a háború megítélését.

Ezek közé tartozik a frontvonalbeli helyzet miatt kétségbeesett katonák bemutatása, az ukrán katonai vezetés hiányosságaira vagy hiányára vonatkozó állítások, valamint az ukrán hadsereg rossz irányításával kapcsolatos vádak.

Számos ilyen videó célja a megadás normalizálása is, olyan ukrán katonákat mutatva be, akik azt állítják, hogy az állásaik elhagyása az egyetlen kiút a háborúból.

A Sensity alapítója, Francesco Cavalli szerint ezeknek a videóknak a célja az ukrán intézményekbe és a katonai vezetésbe vetett bizalom aláásása, valamint a morál gyengítése.

"Az olyan platformokon, mint a TikTok és a Meta, az ilyen videók valódi veszélye nem egyszerűen az, hogy egyes felhasználók elhiszik őket, hanem az, hogy méretarányosan alakíthatják a percepciót, zavart keltenek a gyorsan zajló eseményekben, és fokozatosan erodálják az emberek bizalmát abban, amit látnak" - mondta.

"A régi félelem egy elnökről készült hamis videó volt. Az új valóság a kisebb közönséget megcélzó szintetikus videók ezrei, ahol egyetlen klipnek sem kell vírusként terjednie ahhoz, hogy hatásos legyen"."

Ugrás az akadálymentességi billentyűparancsokhoz
Megosztás Kommentek

kapcsolódó cikkek

Dezinformáció és MI-deepfake-ek formálják az iráni háborút

Hogyan tarolnak a deepfake átverések a közösségi médiában?

Hogyan töltötték ki hamis hírek és képek a Maduro elfogásáról szóló információs vákuumot?