Az MI-chatbotokba feltöltött képeket ismeretlen ideig megőrizhetik, és ha illetéktelenekhez kerülnek, visszaélésekhez, csalásokhoz, hamis közösségi profilokhoz vezethetnek.
A mesterséges intelligencia (MI) által készített karikatúrák divatja, amely egy színes képen mutatja meg mindazt, amit egy chatbot tud valakiről, komoly biztonsági kockázatot jelenthet a kiberbiztonsági szakértők szerint.
A felhasználók egy saját fényképet töltenek fel, vállalati logóval vagy a munkakörükkel kapcsolatos részletekkel, és megkérik az OpenAI ChatGPT-jét, hogy az amit a chatbot tud róluk, felhasználva készítsen karikatúrát róluk és a munkájukról.
A kiberbiztonsági szakértők az Euronews Nextnek azt mondták, hogy a közösségi médiás kihívások, például az MI-karikatúrák, valóságos aranybányát jelenthetnek a csalók számára. Egyetlen kép, személyes adatokkal párosítva, jóval többet árulhat el a felhasználóról, mint azt ő maga gondolná.
„Ön végzi el helyettük a munkát: vizuális képet ad arról, hogy kicsoda” – mondta Bob Long, az életkor-ellenőrzéssel foglalkozó Daon vállalat alelnöke.
Állítása szerint már maga a megfogalmazásnak is vészjelzésként kellene hatnia, mert „úgy hangzik, mintha szándékosan egy olyan csaló indította volna el, aki könnyíteni akar a saját dolgán”.
Mi történik a feltöltött képekkel?
Amikor egy felhasználó képet tölt fel egy MI-chatbothoz, a rendszer elemzi a fotót, és adatokat nyer ki belőle – például a személy érzelmi állapotáról, a környezetéről vagy a tartózkodási helyére utaló információkról – mondta Jake Moore kiberbiztonsági tanácsadó. Ezeket az adatokat aztán ismeretlen ideig tárolhatják.
Long szerint a felhasználóktól begyűjtött képeket felhasználhatják és meg is tarthatják az MI-alapú képgeneráló rendszerek betanításához, az adatbázisaik részeként.
Egy OpenAI-hoz hasonló vállalatnál bekövetkező adatvédelmi incidens azt eredményezheti, hogy érzékeny adatok – például a feltöltött képek és a chatbot által gyűjtött személyes információk – rosszindulatú szereplők kezébe kerülnek, akik visszaélhetnek velük.
Ha rossz kezekbe kerül, egyetlen, nagy felbontású kép is elég lehet hamis közösségimédia-fiókok vagy olyan élethű MI-deepfake-ek készítéséhez, amelyekkel átveréseket lehet végrehajtani – figyelmeztetett Charlotte Wilson, a Check Point izraeli kiberbiztonsági vállalat vállalati üzletágának vezetője.
„A szelfik segítenek a bűnözőknek abban, hogy az általános csalásoktól eljussanak a személyre szabott, különösen hihető megszemélyesítésig” – mondta.
Az OpenAI adatvédelmi beállításai kimondják, hogy a feltöltött képeket felhasználhatják a modell fejlesztésére, ami magában foglalhatja a betanításukat is. Amikor az adatvédelmi beállításokról kérdezték, a ChatGPT pontosította, hogy ez nem jelenti azt, hogy minden fotó nyilvános adatbázisba kerül.
Ehelyett a chatbot szerint a felhasználói tartalmakból kinyert mintákat használja fel arra, hogy finomítsa, miként hoz létre képeket a rendszer.
Mit tegyen, ha mégis részt venne az MI-trendekben?
Akik ennek ellenére szeretnének csatlakozni a trendhez, azoknak a szakértők azt javasolják, hogy korlátozzák, mit osztanak meg.
Wilson szerint a felhasználóknak kerülniük kell az olyan képek feltöltését, amelyek bármilyen azonosításra alkalmas információt elárulnak.
„Vágják szűkre a képet, legyen semleges a háttér, és ne jelenjenek meg rajta kitűzők, egyenruhák, munkabelépők, helyszínre utaló jelek vagy bármi, ami munkahelyéhez vagy napi rutinjához kötheti önöket” – mondta.
Wilson arra is figyelmeztetett, hogy a felhasználók ne osszanak meg túl sok személyes adatot a promptokban, például a beosztásukat, a lakóhelyük szerinti várost vagy a munkaadójuk nevét.
Meanwhile, Moore eközben azt javasolta, hogy részvétel előtt mindenki nézze át az adatvédelmi beállításait, beleértve azt a lehetőséget is, hogy kizárja adatait az MI-betanításból.
Az OpenAI rendelkezik egy adatvédelmi portállal, ahol a felhasználók egy „do not train on my content” (ne képezzenek a tartalmaimból) opcióra kattintva letilthatják adataik felhasználását az MI-betanításban.
A felhasználók azt is megtehetik, hogy a ChatGPT-vel folytatott szöveges beszélgetéseik felhasználását tiltják le a képzésben, ha kikapcsolják az „improve the model for everyone” (a modell fejlesztése mindenki számára) beállítást.
Az uniós jog szerint a felhasználók kérhetik a vállalat által gyűjtött személyes adataik törlését. Az OpenAI ugyanakkor megjegyzi, hogy egyes információkat a törlés után is megőrizhet csalás, visszaélés vagy biztonsági kockázatok kezelése érdekében.