Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

Nemzetközi tényellenőrzés napja: így ismerje fel az MI-generálta álhíreket

MI által generált képek, videók felismerése: önálló kutatás, jelek keresése, szakértő tényellenőrökre hallgatás
MI-s képek, videók azonosítása: önálló kutatás, jelek keresése, tényellenőrző szakértők meghallgatása Szerzői jogok  Canva
Szerzői jogok Canva
Írta: Anna Desmarais & AP
Közzétéve: A legfrissebb fejlemények
Megosztás Kommentek
Megosztás Close Button

A tizedik Nemzetközi Tényellenőrzési Napon jó alkalom áttekinteni, hogyan lehet felismerni a mesterséges intelligencia által előállított dezinformációt.

Az efféle tartalmak mindenütt felbukkannak: az amerikai–iráni háborútól a magyarországi választások előtti időszakig, sőt az egyéni hírfolyamokban is.

HIRDETÉS
HIRDETÉS

Egy nemrég a PNAS Nexus folyóiratban megjelent tanulmányban 27 EU-tagállam összesen 27 ezer lakosát kérték meg arra, hogy nyolc, emberek és mesterséges intelligencia által írt hírcímet értékeljenek aszerint, mennyire tűnnek valósnak.

Az MI által készített címsorok csaknem felét „többnyire” vagy „teljesen valósnak” minősítették, szemben az emberek által írt címek 44 százalékával. Ha tudták, hogy egy valós híreseményről szól, az MI által generált cikket nagyobb valószínűséggel osztották meg és bíztak meg benne, mint az ember által írt verzióban.

Ugyanakkor a válaszadók azt mondták, kisebb eséllyel osztanak meg egy hírt – akár ember, akár MI írta –, ha tudják, hogy hamis.

Az eredmények a kutatók szerint arra utalnak, hogy az emberek nem tudják megkülönböztetni az emberi és az MI által létrehozott tartalmat.

Íme néhány tanács, hogyan lehet mégis különbséget tenni.

Figyeljen a vizuális jelekre

Az első, interneten terjedő MI-videóknak voltak egészen nyilvánvaló árulkodó jelei: túl sok ujj egy kézen, a képtől elcsúszó hang vagy torz tárgyak a felvételen.

Ma már kevesebb az ilyen jel, mert a technológia sokat fejlődött, de továbbra is érdemes keresni őket.

Érdemes figyelni a következetlenségekre: például egy autó az egyik pillanatban még látszik a videón, a következőben már eltűnik.

A Global Investigative Journalism Network (GIJN) szerint egyes MI-képek túlságosan „kimunkáltnak”, szokatlanul csillogónak tűnhetnek.

A GIJN azt javasolja, hogy egy gyanús kép láttán tegyük fel magunknak a kérdést: nem túl tökéletes-e az ábrázolt személy külseje, különösen az adott helyzethez képest (például mintha címlapfotóra készülne, miközben háborús övezetben van)? Azt is érdemes megnézni, hogy a bőr felületén látható-e természetes bőrtextúra, vagy hiányoznak ezek a finom részletek.

Járjon utána

Ha egy kép vagy videó gyanúsnak tűnik, több módszerrel is ellenőrizhető, valódi-e.

Az egyik ilyen módszer a fordított képkeresés: a felhasználó készít egy képernyőfotót a videóról, feltölti a Google keresőmezőjébe, majd rákattint a „kép keresése” feliratú fényképezőgép-ikonra.

Miután a képet feltöltöttük, a Google megjeleníti a vizuálisan egyező találatokat, így gyorsan kideríthető, mikor jelent meg először.

Hasonló keresés más keresőmotorokban vagy speciális eszközökkel, például a TinEye segítségével is végezhető.

A felhasználók technikai megoldásokat is igénybe vehetnek a tartalom vízjeleinek vagy metaadatainak visszakövetésére, hogy eldöntsék, mennyire megbízható az információ, az Európai Bizottság szerint (forrás: angol).

Például a Google Gemini MI-vel készített képek tartalmazzák a SynthID nevű, láthatatlan digitális vízjelező eszközt, amelyet az alkalmazás képes felismerni.

Hallgasson a szakértőkre

Érdemes azt is megnézni, hogy valamely médium, közszereplő nyilatkozata vagy dezinformációval foglalkozó szakértő közösségimédia-bejegyzése már cáfolta-e a terjedő képet vagy videót.

Európa-szerte működnek tényellenőrző szervezetek, például a European Fact-Checking Standards Network (EFCSN), a European Digital Media Observatory (EDMO) vagy az EU külügyi szolgálata (EEAS) által működtetett EUvsDisinfo, amelyek rendszeresen közzétesznek trendeket, kutatásokat és cáfolatokat a különböző MI-alapú dezinformációkról.

Ezek a források fejlettebb módszerekkel rendelkezhetnek az MI-generálta tartalmak azonosítására, illetve olyan háttérinformációkhoz is hozzájuthatnak a képről, amelyek a nagyközönség számára nem elérhetők.

A felhasználók azt is ellenőrizhetik, hogy az általuk látott információ szerepel-e a Database of Known Fakes nevű, újságírók, kutatók és hivatásos tényellenőrök által készített tényellenőrzéseket összegző adatbázisban (forrás: angol).

Használja a technológiát

Léteznek különféle MI-detektáló eszközök, ám vitatott, mennyire pontosan jelzik az MI által generált tartalmakat.

Ilyen eszköz például a Winston AI, amely az MI által generált képeket próbálja kiszűrni; a TruthScan, amely előzetes értékelést ad arról, hogy egy kép MI-vel készült-e; valamint az Originality AI, amely a szövegeknél jelzi, ha azokat mesterséges intelligencia írta.

Más MI-alkalmazások látható vízjeleket helyeznek el az általuk létrehozott tartalmakon.

Ezeket azonban gyakran könnyű eltávolítani vagy levágni a képről, így a vízjel hiánya önmagában nem bizonyítja, hogy a kép hiteles.

Ne kapkodjon

Álljon meg egy pillanatra, vegyen egy mély levegőt, és ne osszon meg azonnal olyan tartalmat, amely nem valódi.

A rosszindulatú szereplők gyakran arra építenek, hogy az emberek érzelmeikre és meglévő nézeteikre hagyatkozva reagálnak a tartalmakra.

A hozzászólások átolvasása is adhat támpontot arról, hogy a látott kép valódi-e, mert mások esetleg már kiszúrtak valamilyen, MI-re utaló részletet.

Nem mindig állapítható meg egyértelműen, hogy egy kép MI-vel készült-e, ezért mindig számolni kell azzal a lehetőséggel, hogy nem valódi.

Ugrás az akadálymentességi billentyűparancsokhoz
Megosztás Kommentek

kapcsolódó cikkek

Képekben: az Artemis II űrhajósai történelmi Hold-misszióra indulnak

50 éves az Apple: Hollandiában új múzeum mutatja be a techóriás történetét

Nemzetközi tényellenőrzés napja: így ismerje fel az MI-generálta álhíreket