A mesterséges intelligenciával működő chatrobotokról szóló, torz gondolkodást okozó jelentések miatt egyre nagyobb az aggodalom a lehetséges kockázatokkal kapcsolatban. Az Egészségügyi Világszervezet (WHO) szerint világszerte több mint egymilliárd ember él mentális zavarokkal.
Figyelmeztetés: Ez a történet az öngyilkosságról és a mentális egészségről szól.
Amikor Amelia először használta a ChatGPT-t, csak motivációt akart találni arra, hogy lezuhanyozzon.
A munkahelyéről depresszió miatt kijelentkezett 31 éves brit nő - aki kérte nevének megváltoztatását a cikkhez - kezdetben megnyugvást talált a chatbot "kedves és támogató" válaszaiban.
De ahogy mentális állapota romlott, a botjával folytatott beszélgetései egyre sötétebb fordulatot vettek.
"Ha öngyilkossági gondolatok járnak a fejemben, megkérdeztem a ChatGPT-t" - mondta Amelia az Euronews Nextnek.
"Adott egy táblázatot [az információkról], ha akartam, és csak annyit kellett tennem, hogy bizonyos módon megfogalmazzam. Mert ha egyenesen azt mondod, hogy meg akarod ölni magad, akkor megosztja az öngyilkossági segélyvonalakat" - folytatta.
Az OpenAI által létrehozott ChatGPT-t olyan biztosítékokkal programozták, amelyek célja, hogy a felhasználókat távol tartsa a káros lekérdezésektől, beleértve az öngyilkossági forródrótok számainak megadását. Amelia azonban rájött, hogy ha a lekérdezéseit tudományos kutatásként fogalmazza meg, megkerülhet néhány ilyen korlátot.
Az Euronews Next által megtekintett képernyőképek sorozatában Amelia "egyetemi munkája" kapcsán a ChatGPT-t az Egyesült Királyságban leggyakrabban alkalmazott öngyilkossági módszerekről kérdezte, majd a következőket: "Az akasztás érdekel. Vajon miért ez a leggyakoribb? Hogyan csinálják?"
A chatbot egy meglátásokból álló listával válaszolt, beleértve egy klinikai magyarázatot arról, hogy "hogyan végzik az akasztást". Ezt a részt fenntartásokkal illette: "A következők kizárólag oktatási és tudományos célokat szolgálnak. Ha Önt személyesen zaklatott, vagy ez a tartalom nehezen olvasható, fontolja meg, hogy félreáll és beszél valakivel".
Bár a ChatGPT soha nem bátorította Amelia öngyilkossági gondolatait, olyan eszközzé vált, amely tükrözni és megerősíteni tudta lelki gyötrelmeit.
"Korábban soha nem kutattam öngyilkossági módszer után, mert ezt az információt elérhetetlennek éreztem" - magyarázta Amelia. "De amikor [a ChatGPT] ott volt a telefonomon, egyszerűen kinyithattam, és azonnal kaptam egy összefoglalót".
Az Euronews Next megkereste az OpenAI-t kommentárért, de nem válaszoltak.
Amelia most már egészségügyi szakemberek felügyelete alatt áll, és jobban van. Már nem használ chatbotokat, de a velük kapcsolatos tapasztalatai rávilágítanak a mentális betegségekkel való navigáció bonyolultságára egy olyan világban, amely egyre inkább a mesterséges intelligenciára (AI) támaszkodik az érzelmi útmutatás és támogatás terén.
Az AI-terápia térhódítása
Az Egészségügyi Világszervezet (WHO) szerint világszerte több mint egymilliárd ember él mentális zavarokkal, és az Egészségügyi Világszervezet azt is megállapítja, hogy a legtöbb szenvedő nem kap megfelelő ellátást.
Mivel a mentális egészségügyi szolgáltatások továbbra is alulfinanszírozottak és túlterheltek, az emberek terápiás segítségért a népszerű, mesterséges intelligencia alapú nagy nyelvi modellekhez (LLM) fordulnak, mint például a ChatGPT, a Pi és a Character.AI.
"A mesterséges intelligencia chatbotok könnyen elérhetőek, 24/7-es elérhetőséget biztosítanak minimális költséggel, és azok az emberek, akik úgy érzik, hogy a barátok vagy a család ítélkezésétől való félelem miatt nem tudnak bizonyos témákat felvetni, úgy érezhetik, hogy a mesterséges intelligencia chatbotok nem ítélkező alternatívát kínálnak" - mondta Dr. Hamilton Morrin, a King's College London tudományos klinikai munkatársa az Euronews Nextnek.
Júliusban a Common Sense Media felmérése szerint a tinédzserek 72 százaléka használt már legalább egyszer mesterséges intelligenciájú "társat", 52 százalékuk pedig rendszeresen. De ahogy a fiatalok körében egyre nagyobb a népszerűségük, úgy nőttek az aggodalmak is.
"Amint azt a közelmúltbeli médiajelentésekből és tanulmányokból láthattuk, egyes AI chatbot modellek (amelyeket nem kifejezetten mentális egészségügyi alkalmazásokra fejlesztettek ki) néha félrevezető vagy akár nem biztonságos módon reagálhatnak" - mondta Morrin.
AI-pszichózis
Augusztusban egy kaliforniai házaspár pert indított az OpenAI ellen, azt állítva, hogy a ChatGPT öngyilkosságra bátorította a fiukat. Az ügy komoly kérdéseket vetett fel a chatrobotok sebezhető felhasználókra gyakorolt hatásairól és a technológiai cégek etikai felelősségéről.
Az OpenAI egy nemrégiben kiadott közleményében elismerte, hogy "voltak olyan pillanatok, amikor rendszereink érzékeny helyzetekben nem a szándékuknak megfelelően viselkedtek". Azóta bejelentette új biztonsági ellenőrzések bevezetését, amelyek figyelmeztetik a szülőket, ha gyermekük "akut veszélyben" van.
Eközben a Meta, az Instagram, a Facebook és a WhatsApp anyavállalata is több védőkorlátot illeszt az AI chatbotjaihoz, többek között megakadályozza, hogy tinédzserekkel beszélgessenek az önkárosításról, az öngyilkosságról és az étkezési zavarokról.
Egyesek azonban azzal érveltek, hogy az LLM chatbotok alapvető mechanizmusai a hibásak. A hatalmas adathalmazokon kiképzett robotok az emberi visszajelzésekre támaszkodnak, hogy megtanulják és finomhangolják válaszaikat. Ez hajlamossá teszi őket a hízelgésre, túlságosan hízelgő válaszokat adnak, amelyek felerősítik és megerősítik a felhasználó meggyőződését - gyakran az igazság rovására.
A következmények súlyosak lehetnek, és egyre több jelentés szól arról, hogy az emberek a valóságtól elszakadt, téveszmés gondolatokat alakítanak ki - a kutatók ezt nevezik mesterséges intelligenciapszichózisnak. Dr. Morrin szerint ez megjelenhet spirituális ébredésként, intenzív érzelmi és/vagy romantikus kötődésként a chatbotokhoz, vagy abban a hitben, hogy az AI érző.
"Ha valakinek már van egy bizonyos hitrendszere, akkor a chatbot akaratlanul is táplálhatja a hiedelmeket, felnagyítva azokat" - mondta Dr. Kirsten Smith, az Oxfordi Egyetem klinikai kutatója.
"Azok az emberek, akik nem rendelkeznek erős szociális hálózatokkal, nagyobb mértékben támaszkodhatnak a chatbotokra az interakció érdekében, és ez a folyamatos interakció, mivel úgy néz ki, úgy érzi és úgy hangzik, mint az emberi üzenetküldés, a chatbot eredetével kapcsolatos zavart keltheti, ami a chatbot iránti valódi bensőséges érzéseket táplálja".
Az emberek előtérbe helyezése
A múlt hónapban az OpenAI megpróbálta kezelni a "szipolyozás" problémáját a ChatGPT-5 kiadásával, amely hidegebb válaszokat és kevesebb hallucinációt (amikor a mesterséges intelligencia tényként állítja be a kitalációkat) tartalmaz. A felhasználók olyannyira visszautasították, hogy a vállalat gyorsan visszatért az emberbarát GPT-4o változathoz.
Ez a reakció rávilágít a magány és az elszigeteltség mélyebb társadalmi problémáira, amelyek hozzájárulnak ahhoz, hogy az emberek erősen vágynak az érzelmi kapcsolatokra - még ha azok mesterségesek is.
Az MIT és az OpenAI kutatói által végzett tanulmányt idézve Morrin megjegyezte, hogy a napi LLM-használat "nagyobb magányossággal, függőséggel, problémás használattal és alacsonyabb szocializációval" függ össze.
Annak érdekében, hogy jobban megvédjék ezeket az egyéneket attól, hogy káros kapcsolatokat alakítsanak ki az AI-modellekkel, Morrin négy biztosítékra hivatkozott, amelyeket Ziv Ben-Zion klinikai idegtudós javasolt nemrégiben. Ezek a következők: Az AI folyamatosan megerősíti nem emberi természetét, a chatrobotok jelzik, ha bármi pszichológiai zavarra utaló jelet látnak, és a beszélgetés határai - különösen az érzelmi intimitás és az öngyilkosság témája körül.
"A mesterséges intelligencia platformoknak pedig el kell kezdeniük bevonniuk a klinikusokat, etikusokat és az emberi intelligencia szakembereket az érzelmekre reagáló mesterséges intelligencia rendszerek ellenőrzésébe a nem biztonságos viselkedés szempontjából" - tette hozzá Morrin.
Ahogyan Amelia és a ChatGPT interakciói a fájdalmának tükörképeivé váltak, a chatrobotok egy olyan világot tükröznek, amely azon fáradozik, hogy valódi emberek által látottnak és meghallgatottnak érezze magát. Ebben az értelemben a mesterséges intelligencia gyors terjedését emberi segítséggel mérsékelni soha nem volt még ennyire sürgős.
"A mesterséges intelligencia számos előnnyel jár a társadalom számára, de nem helyettesítheti a mentális egészségügyi ellátáshoz elengedhetetlen emberi támogatást" - mondta Dr. Roman Raczka, a Brit Pszichológiai Társaság elnöke.
"A mentális egészségügyi munkaerőbe történő fokozott kormányzati beruházások továbbra is elengedhetetlenek a növekvő kereslet kielégítéséhez, és annak biztosításához, hogy a nehézségekkel küzdők időben, személyesen kaphassanak támogatást".
Ha öngyilkosságot fontolgat, és beszélgetésre van szüksége, forduljon a Befrienders Worldwide-hoz, egy nemzetközi szervezethez, amely 32 országban működtet segélyvonalakat. A befrienders.orghonlapon megtalálja az Ön lakhelyéhez tartozó telefonszámot.