Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

A csalók malmára hajthatja a vizet a ChatGPT karikatúramánia, figyelmeztetnek szakértők

Mesterséges intelligencia által generált karikatúra egy Canva stockfotóról.
Egy Canva stockfotóról készült, mesterséges intelligenciával generált karikatúra. Szerzői jogok  Canva/ChatGPT
Szerzői jogok Canva/ChatGPT
Írta: Euronews
Közzétéve:
Megosztás Kommentek
Megosztás Close Button

Az MI-chatbotokba feltöltött képeket ismeretlen ideig megőrizhetik, és ha illetéktelenekhez kerülnek, visszaélésekhez, csalásokhoz, hamis közösségi profilokhoz vezethetnek.

A mesterséges intelligencia (MI) által készített karikatúrák divatja, amely egy színes képen mutatja meg mindazt, amit egy chatbot tud valakiről, komoly biztonsági kockázatot jelenthet a kiberbiztonsági szakértők szerint.

HIRDETÉS
HIRDETÉS

A felhasználók egy saját fényképet töltenek fel, vállalati logóval vagy a munkakörükkel kapcsolatos részletekkel, és megkérik az OpenAI ChatGPT-jét, hogy az amit a chatbot tud róluk, felhasználva készítsen karikatúrát róluk és a munkájukról.

A kiberbiztonsági szakértők az Euronews Nextnek azt mondták, hogy a közösségi médiás kihívások, például az MI-karikatúrák, valóságos aranybányát jelenthetnek a csalók számára. Egyetlen kép, személyes adatokkal párosítva, jóval többet árulhat el a felhasználóról, mint azt ő maga gondolná.

„Ön végzi el helyettük a munkát: vizuális képet ad arról, hogy kicsoda” – mondta Bob Long, az életkor-ellenőrzéssel foglalkozó Daon vállalat alelnöke.

Állítása szerint már maga a megfogalmazásnak is vészjelzésként kellene hatnia, mert „úgy hangzik, mintha szándékosan egy olyan csaló indította volna el, aki könnyíteni akar a saját dolgán”.

Mi történik a feltöltött képekkel?

Amikor egy felhasználó képet tölt fel egy MI-chatbothoz, a rendszer elemzi a fotót, és adatokat nyer ki belőle – például a személy érzelmi állapotáról, a környezetéről vagy a tartózkodási helyére utaló információkról – mondta Jake Moore kiberbiztonsági tanácsadó. Ezeket az adatokat aztán ismeretlen ideig tárolhatják.

Long szerint a felhasználóktól begyűjtött képeket felhasználhatják és meg is tarthatják az MI-alapú képgeneráló rendszerek betanításához, az adatbázisaik részeként.

Egy OpenAI-hoz hasonló vállalatnál bekövetkező adatvédelmi incidens azt eredményezheti, hogy érzékeny adatok – például a feltöltött képek és a chatbot által gyűjtött személyes információk – rosszindulatú szereplők kezébe kerülnek, akik visszaélhetnek velük.

Ha rossz kezekbe kerül, egyetlen, nagy felbontású kép is elég lehet hamis közösségimédia-fiókok vagy olyan élethű MI-deepfake-ek készítéséhez, amelyekkel átveréseket lehet végrehajtani – figyelmeztetett Charlotte Wilson, a Check Point izraeli kiberbiztonsági vállalat vállalati üzletágának vezetője.

„A szelfik segítenek a bűnözőknek abban, hogy az általános csalásoktól eljussanak a személyre szabott, különösen hihető megszemélyesítésig” – mondta.

Az OpenAI adatvédelmi beállításai kimondják, hogy a feltöltött képeket felhasználhatják a modell fejlesztésére, ami magában foglalhatja a betanításukat is. Amikor az adatvédelmi beállításokról kérdezték, a ChatGPT pontosította, hogy ez nem jelenti azt, hogy minden fotó nyilvános adatbázisba kerül.

Ehelyett a chatbot szerint a felhasználói tartalmakból kinyert mintákat használja fel arra, hogy finomítsa, miként hoz létre képeket a rendszer.

Mit tegyen, ha mégis részt venne az MI-trendekben?

Akik ennek ellenére szeretnének csatlakozni a trendhez, azoknak a szakértők azt javasolják, hogy korlátozzák, mit osztanak meg.

Wilson szerint a felhasználóknak kerülniük kell az olyan képek feltöltését, amelyek bármilyen azonosításra alkalmas információt elárulnak.

„Vágják szűkre a képet, legyen semleges a háttér, és ne jelenjenek meg rajta kitűzők, egyenruhák, munkabelépők, helyszínre utaló jelek vagy bármi, ami munkahelyéhez vagy napi rutinjához kötheti önöket” – mondta.

Wilson arra is figyelmeztetett, hogy a felhasználók ne osszanak meg túl sok személyes adatot a promptokban, például a beosztásukat, a lakóhelyük szerinti várost vagy a munkaadójuk nevét.

Meanwhile, Moore eközben azt javasolta, hogy részvétel előtt mindenki nézze át az adatvédelmi beállításait, beleértve azt a lehetőséget is, hogy kizárja adatait az MI-betanításból.

Az OpenAI rendelkezik egy adatvédelmi portállal, ahol a felhasználók egy „do not train on my content” (ne képezzenek a tartalmaimból) opcióra kattintva letilthatják adataik felhasználását az MI-betanításban.

A felhasználók azt is megtehetik, hogy a ChatGPT-vel folytatott szöveges beszélgetéseik felhasználását tiltják le a képzésben, ha kikapcsolják az „improve the model for everyone” (a modell fejlesztése mindenki számára) beállítást.

Az uniós jog szerint a felhasználók kérhetik a vállalat által gyűjtött személyes adataik törlését. Az OpenAI ugyanakkor megjegyzi, hogy egyes információkat a törlés után is megőrizhet csalás, visszaélés vagy biztonsági kockázatok kezelése érdekében.

Ugrás az akadálymentességi billentyűparancsokhoz
Megosztás Kommentek

kapcsolódó cikkek

Ember vagy mesterséges intelligencia? Kutatók vizsgálják, ki posztol a Moltbookon

Európai Bizottság, az Interpol és száz szervezet betiltaná az AI-meztelenítő eszközöket

Legnagyobb veszélyforrás az otthoni biztonsági rendszer?