NewsletterHírlevélEventsEsemények
Loader

Find Us

FlipboardLinkedin
Apple storeGoogle Play store
HIRDETÉS

Az MI visszaszoktat minket a gondolkodásra - interjú egy magyar fejlesztőcsapat vezetőjével

A kép illusztráció
A kép illusztráció Szerzői jogok Michael Dwyer/Copyright 2023 The AP. All rights reserved.
Szerzői jogok Michael Dwyer/Copyright 2023 The AP. All rights reserved.
Írta: Euronews/FA
A cikk megosztásaKommentek
A cikk megosztásaClose Button

Egy választási szuperévben, amilyen ez a mostani, különösen fontos, hogy használjuk a józan eszünket, de a webáruházakban és a közösségi médiában sem ártana. A fejlesztők igyekeznek biztonsági garanciákat építeni az MI-alkalmazásokba, de nem mindenhatóak.

HIRDETÉS

A mesterséges intelligencia sokkal hosszabb ideje része a mindennapjainknak, mint az, amit manapság annak nevezünk. Legalább ötven éve használatosak olyan szoftverek, algoritmusok, amelyek bizonyos mértékben és módon alkalmasak az önálló adatelemzésre, ebből fakadóan többé-kevésbé kreatív feladatok ellátására anélkül, hogy az embernek be kellene avatkoznia a folyamatba.

A hétköznapokban nincs olyan szektor, amely valamilyen módon ne élne vele, beleértve a szolgáltatásokat és a kommunikációt is. Adatelemzéssel nagyban hozzájárul a szolgáltatások hatékonyságának javításához, és ugyanilyen komoly szerepe van a kommunikációban. A mesterséges intelligencia fejlett modelljei működtetik az internetes keresőmotorokat, a fordítógépeket, az okostelefonok digitális személyi asszisztenseit, ahogyan minden olyan eszközt és alkalmazást is, amelyek alkalmasak digitális tartalmak manipulációjára. Utóbbiak mára rendkívül kockázatossá tették a közösségi platformokat, illetve a digitális kommunikációt általában.

A napi politika ontja magából a hamisítványokat

Nemcsak a magánélet védelme kíván rendkívüli éberséget az interneten terjedő manipulált vagy mesterségesen generált tartalmak özöne miatt, hanem a közélet és a politika is ki van téve a hamisítás fénysebességgel tökéletesedő technikáinak. Erre az egyik legutóbbi példa a március 22-i Moszkva melletti terrortámadásról szóló egyik tudósítás, amely miatt egy hamis, úgynevezett deepfake videó terjed az interneten az egyik nagy orosz tévécsatorna, az NTV adása nyomán. Az állítólagos felvételen az ukrán nemzetbiztonsági és védelmi tanács elnöke, Olekszij Danilov mond folyamatosan olyasmit, amit a megjelenített kontextusban sosem ejtett ki a száján. A BBC szakemberei szerint Danilov “megszólalását” két korábbi interjúból rakták össze.

Ebben a rendkívül kiélezett politikai helyzetben természetes, hogy egy ilyen megdöbbentő videót megvizsgáltatnak a mértékadó médiumok és a politikai szereplők is. Vagyis van esélye annak, hogy kiderüljön a hamisítás. Az már más kérdés, hogy hírek szerint hiába derült ki, a videó ettől még megállíthatatlanul terjed a közösségi médiában, ami sokkal többeket ér el, mint a mértékadó sajtó. Ez az a szakadék, amely különösen sok veszélyt rejt épp idén, amikor több választás lesz a világon 12 hónap leforgása alatt, mint valaha.

Az információtengerben nagyon kevesen tudnak úszni

A deepfake egy átlagos internetfelhasználó szempontjából kifejezetten életveszélyes lehet, de a politikában is majdhogynem ugyanez a helyzet, ha nem is mindig a testi épség forog kockán. Valamelyest sarkítva egész nemzetek sorsa múlhat azon például választások idején, hogy a politikai pártok vagy akár egyes politikusok meddig mennek el, milyen mértékben és formában élnek a mesterséges intelligencia nyújtotta lehetőségekkel, a szavazásra jogosultak pedig mit hisznek el és mit nem.

Első ránézésre reménytelennek tűnik a választók helyzete. A mesterséges intelligencia magas színvonalon manipulál, és hamisít, miközben alkalmazásának szabályozása enyhén szólva is gyerekcipőben jár. Vagyis nagyon úgy néz ki, hogy a kampánycsapatok önmérsékletén kívül nem nagyon van miben bíznunk. Hacsak nem a fejlesztőkben, akik stratégiai szereplői ennek a bonyolult összjátéknak.

Sokat segít a józan ész

Ezt mondja Magyarország egyik vezető adattanácsadó cége, a Hiflylabs fejlett analitikai csapatának vezetője, Horváth Imola, aki szerint minden kockázata ellenére hiba volna démonizálni a mesterséges intelligencia új generációját.

Horváth Imola: Az adatelemzés egy elég tág fogalom. Ide tartoznak az egyszerűbb metrikai kimutatások, a megtérülési ráta, a bevételarányos nyereség kiszámítása, de lemehetünk egy másik szintre, amelyen például a vásárlók szokásait monitorozzuk, igyekszünk megérteni, és próbáljuk automatizálni a személyre szabott ajánlatok készítését. Ebbe a körbe tartozik a generatív mesterséges intelligencia is, aminek legismertebb változata a ChatGPT, de rajta kívül több tízezer ilyen modell létezik. Ezek már teljesen automatizált rendszerek, amelyeket új, úgymond emberszerű tartalmak - szövegek, képek, videók - előállítására is használhatunk.

A generatív mesterséges intelligencia nemcsak fenyegetést jelent, hanem lehetőséget is kínál egy választás lebonyolításakor. Vajon az idei globális választási bumm csak mennyiségi vagy minőségi problémákat vet fel?

H.I. Az adatelemzés megszokott dolog a politikában, a politikai kampányok is jó ideje adatvezérelten működnek, gondoljunk csak a közvélemény-kutatásokra, ami vegytiszta statisztika. Ezzel együtt az ún. sentiment-elemzés is bevett dolog, vagyis a közhangulat mérése, a közösségi médiában futó hirdetésekkel akár célzottan is el lehet érni a választókat már aránylag régóta. Amivel most pluszban számolnunk kell, az az újfajta mesterséges intelligenciának az a vonása, hogy sokkal emberszerűbb kommunikációra képes, mint az elődei, és sokkal gyorsabb is. Így aztán egyre nehezebbé válik megkülönböztetni egymástól a valós és az MI-generált tartalmat, de nem ez az egyetlen szegmens, amelyben változást hoz. Átalakítja a trollgazdaságot is, mert most már nem kell például Pakisztánban bérelni trollfarmot a közösségi média befolyásolására, a mesterséges intelligencia önállóan is megoldja ezt. A chatbot pedig lehetővé teszi a közvetlen kommunikációt is a szavazókkal vagy épp a rivális jelölt támogatóival. De nemcsak a rosszhiszemű felhasználók számára jelent segítséget, hanem a beszéd- és szövegíróknak, a pr- és sajtókapcsolatok felelőseinek is, akik így sokkal hatékonyabban meg tudnak szólítani egy adott célcsoportot, ezzel is erősítve a személyes elkötelezettséget.

Ez drága dolog, és érteni kell hozzá?

H.I. Nem, ez most már széles körben elérhető technológia, elsősorban a ChatGPT formájában, miközben egyre több versenytársa jelenik meg a piacon. Ezeknek mind van ingyenes verziójuk, és az összetettebb változataik sem drágák, néhány dolláros havidíjért már elérhetők. És adattudósnak sem kell lenni ahhoz, hogy ezeket a modelleket valaki használni tudja. Könnyen és gyorsan megtanulható, hogyan kell jó képeket generáltatni vagy jó szövegeket íratni velük. Igazából azt kell megtanulni, hogyan fogalmazzunk meg jól egy kérdést vagy egy feladatot.

Ez elég rosszul hangzik. Van bármi, ami ezek után garanciát jelenthet egy digitális tartalom valódiságára?

H.I. Nagyon egyszerű dolog az, ami beválik egy ilyen helyzetben, épp csak leszoktunk róla az elmúlt évtizedekben. Ez a kritikus gondolkodás, mondhatnám, hogy a természetes intelligenciánk használata. Kicsit olyan ez, mint régen, amikor még elmentünk a könyvtárba, ha meg akartunk tudni valamit. Megtanultuk, mit, hol kell keresni, mire, hol találunk választ. Aztán bejött a Wikipédia, és emlékszem, milyen felháborodással fogadták a tanáraink, hogy arra hivatkozunk. Azt mondták, az nem megbízható. De idővel az is fejlődött, kialakult a tartalomrögzítés és az ellenőrzés protokollja, az egész rendszer felügyelete, és mostanra már hiteles forrásként él a köztudatban. Úgy látom, hogy a generatív MI-nak is meg kell tennie ezt az utat, ki fognak alakulni jól működő struktúrák, amelyeknek az alapja természetesen a szabályozás. Az Európai Unió élen jár ebben, a világon elsőként tervezte meg, majd fogadta el ennek a típusú mesterséges intelligenciának a felhasználására vonatkozó szabályrendszert, még ha annak teljes körű alkalmazására két évet várni kell is. A lényeg tehát, hogy ne vegyünk semmit készpénznek, főleg a nagyon meglepő dolgokat ne, és tartsunk számon olyan hiteles forrásokat, amelyek alkalmasak arra, hogy ellenőrizzük mindazt, amit lépten-nyomon látunk, hallunk.

Horváth Imola
Horváth ImolaFotó: Saját archívum

Ami a szabályozást illeti, ön, mint fejlesztő, mit gondol hatékonyabbnak a visszaélések elleni küzdelemben: a hamisítványvadászatot vagy az eredeti tartalmak védelmét, mondjuk valami fajta megjelölésüket, ami követhetővé teszi a sorsukat.

H.I. A nagy platformoknak már most meg kell jelölniük, hogy az általuk közölt tartalom ember vagy a mesterséges intelligencia terméke-e. A jelentősebb internetes szolgáltatók többségének van saját stratégiája az ilyen típusú tartalmak felhasználásával kapcsolatban. Ennek legfrissebb példája, hogy a nagy hírügynökségek elég gyorsan visszavonták azt a családi fotót, amelyet Katalin walesi hercegné tett közzé nemrég, mert kiderült, hogy a fénykép nem eredeti. A szabályozás tehát ebbe az irányba biztosan el fog mozdulni, vagyis, hogy a mesterséges intelligencia által gyártott képeken fel kell majd tüntetni, hogy melyik készült generatív MI-modell felhasználásával. Ez egyelőre nem automatikus. Az még kérdés, hogy ezt a hitelesítést hogyan lehet megoldani szöveg, videó vagy hangfelvétel esetében. Ugyanakkor a szabályozáson túl, vagy még innen, a platformoknak, különösen a közösségi oldalaknak mindenféle kényszer nélkül is rá kell érezniük arra, milyen fontos, hogy megőrizzék a hitelességüket. Vagyis valami módon azonosíthatóvá kell tenniük a manipulált tartalmakat. Itt ugye nem kizárólag rosszhiszemű manipulációról van szó, hanem teljesen ártatlan változtatásokról is, de azokat is meg kell különböztetniük az eredeti tartalmaktól, máskülönben hiteltelenné válnak, és fokozatosan elveszítik látogatóikat. Úgyhogy ez is stabil eleme lesz majd a digitális kommunikáció kritériumrendszerének, ahogyan például a korhatárbesorolás vagy a felkavaró, illetve erőszakos tartalom előrejelzése is elvárás lett. Külföldi podcastokban egyébként már egyre inkább előfordul, hogy a végén bemondják, hogy az úgynevezett fact checket, vagyis az adatellenőrzést ki csinálta, ha úgy tetszik, ki hitelesíti mindazt, ami hivatkozásként elhangzott.

A mesterséges tartalmak terjedése idővel feltehetően azzal jár majd, hogy felértékelődik az emberi produktum, és ez akár a politikai életben is megjelenhet, nem gondolja?

H.I. Szerintem is így lesz, igen, arról nem beszélve, hogy azért az ember nem minden helyzetben és nem folyamatosan helyettesíthető, nem is ez a cél. Meg kell nézni, az önvezető autók sem uralták még el az utakat, a robotpilóta sem vette el a pilóták munkáját, még a harci pilótákét sem. Azért a fejlesztők is tisztában vannak a kockázatoknak legalább egy részével, és azt is tudják, hogy a szabályozás elkerülhetetlen. Ezért akár üzleti érdekből is elébe mennek, saját hatáskörben belekalkulálnak olyan biztosítékokat, amelyeket utólag nehezebb és költségesebb lenne beépíteni a rendszereikbe.

HIRDETÉS

Vagyis azt mondja, hogy ezen a piacon, ahol kegyetlen verseny zajlik, a szereplők megkockáztatják, hogy valamit a szó szoros értelmében a biztonság kedvéért nem lépnek meg? És ha a versenytárs meg meglépi, akkor mire mennek vele?

H.I. A többiek nevében nem tudok nyilatkozni, de mi, amikor generatív mesterséges intelligenciával dolgozunk, tudatában vagyunk annak, hogy ezeket az eszközöket nem csak jó célra lehet használni. Képzéseket tartunk kifejezetten azért, hogy minél jobban megismerjük ezeket a felhasználási lehetőségeket, így a fejlesztés során legyen esélyünk tenni ezek ellen. Úgy építjük meg a mesterséges intelligencia alapú applikációkat, hogy belekalkulálunk védelmi funkciókat is. De az kétségtelen, hogy vannak vérre menő viták a szektoron belül, több nagy nevű fejlesztő is felállt az elmúlt években azért, mert nem tartják sem biztonságosnak, sem etikusnak a cégük által preferált fejlesztési irányt.

Épp egyikük, Mo Gavdat, a Google nagy öregje mondta egy beszélgetésben, hogy nem a mesterséges intelligenciával van baj, hanem az emberrel, aki tanítja. Ez a különleges választási év olyan lesz a generatív mesterséges intelligenciának, mint egy politikai gyorstalpaló. A tengernyi feladatból, amit majd kap, vajon miféle következtetéseket von le?

H.I. Már az is egy hatalmas tudásbázis, amelyet ezek az eszközök direktben megkaptak. A ChatGPT-t (GPT-3) például 3 év tanítási időszak alatt 45 terrabájtnyi szövegen tanították, ami közel 47,2 millió darab 500 oldalas könyvnek feleltethető meg. Ez felfoghatatlan mennyiség. És igen, miközben dolgoznak, folyamatosan frissül a tudásuk. Egyrészt a fejlesztőik is nézik, hogy hol hibáznak, mire nem tudnak választ adni vagy nem adnak elég jó választ. Másrészt azzal, hogy használjuk, mi is folyamatosan visszajelzést adunk nekik, a kérdésekkel és a feladatokkal önkéntelenül is struktúrákat teremtünk az adathalmazban, amelyet beléjük töltöttek. Nagyon fontosnak tartom, hogy mindez nem fenyegeti, hanem támogatja az emberiséget abban az esetben, ha mi magunk is hajlandóak vagyunk használni azt, ami meg nekünk van, a természetes intelligenciánkat.

A cikk megosztásaKommentek

kapcsolódó cikkek

Példát akarna mutatni a világnak az EU a mesterséges intelligenciát szabályozó törvénnyel

A mesterséges intelligencia (MI) és hamis szexvideók

A GDPR megsértése miatt bepanaszolták az OpenAI-t Ausztriában