NewsletterHírlevélEventsEsemények
Loader

Find Us

FlipboardLinkedin
Apple storeGoogle Play store
HIRDETÉS

Deepfake: az esetek negyedében nem ismerjük fel, hogy nem valódi ember beszél hozzánk

Barack Obamáról készült deepfake videó
Barack Obamáról készült deepfake videó Szerzői jogok AP
Írta: Magyar Ádám
A cikk megosztásaKommentek
A cikk megosztásaClose Button

A mesterséges intelligencia gyors fejlődése komoly veszélyeket rejt magában - egy friss kutatás szerint már most olyan jó a deepfake-technológia, hogy sokakat meg tud téveszteni.

HIRDETÉS

Első alkalommal végeztek tudományos kutatást az angoltól eltérő nyelven azzal kapcsolatban, hogy az emberek mekkora eséllyel képesek felismerni a mesterséges intelligencia által létrehozott beszédet. 

Az eredmény nem túl biztató: a kísérlet résztvevő emberek az esetek 73 százalékában jöttek csak rá arra, hogy nem valódi ember beszél hozzájuk. A technológia pedig csak fejlődni fog a következő években, a deepfake felismerése így vélhetően egyre nehezebbé válik majd.

Nem számít, hogy milyen nyelvű a szöveg

A kísérletet az University College London kutatói hajtották végre. A tudósok betanítottak egy szövegfelolvasó algoritmust két nyilvános adatbázis (egy angol és egy mandarin kínai) felhasználásával. Ezután az MI segítségével létrehoztak 50 deepfake hangfelvételt mindkét nyelven.

A hangmintákat 529 embernek játszották le, vegyítve valós emberektől származó hangfelvételekkel. A résztvevők azt a feladatot kapták, hogy mindegyik fájl meghallgatása után döntsék el, melyik valódi, és melyiket állította elő a mesterséges intelligencia. 

Ez csak az esetek 73 százalékában sikerült nekik, és azután is csak kis mértékben javult a helyzet, hogy a kutatók oktatást tartottak nekik a deepfake-re jellemző jegyek felismeréséről. A két vizsgált nyelv eredményei között nem volt számottevő különbség.

„A kutatásunkban bemutattuk, hogy az nem feltétlenül segít, hogy az embereket megtanítjuk a deepfake felismerésére. Sajnos a kísérleteink arra is rávilágítottak, hogy az automata felismerőeszközök sem megbízhatók" - mondta Kimberly Mai, a kutatás eredményeiből írt tanulmány első szerzője. 

A deepfake hangokat és videókat egyre szélesebb körben használják, gyakran teljesen ártalmatlanul - 2020-ban például egy brit tévécsatornán a mesterséges intelligencia által létrehozott beszédet tartott a „királynő". 

Sokan azonban visszaélnek a technológia nyújtotta lehetőségekkel, jellemzően úgy, hogy hamis üzeneteket adnak politikusok szájába. Azon a napon például, amikor Jevgenyij Prigozsin katonái Moszkva felé tartottak, a Telegramon több különböző fiókra töltöttek fel hangüzeneteket, melyek állítólag a Wagner-vezértől származtak, de ellentmondtak egymásnak, és egy részük szinte biztosan deepfake volt.

További források • The Guardian

A cikk megosztásaKommentek

kapcsolódó cikkek

Az MI által generált pornográf tartalmak áldozatai a nők és a gyerekek

Az EP kemény szabályokkal vetne gátat a mesterséges intelligencia alkalmazásának

Vízerőmű-robbanás: egyre kisebb az esély, hogy megtalálják az eltűnteket