Tanulmány: az OpenAI ChatGPT-je feszült emberi konfliktusokra sértésekkel és káromkodással reagál
Új kutatás szerint a mesterségesintelligencia-rendszerek könnyen átcsúszhatnak bántó, agresszív nyelvezetbe, ha heves szóváltásra kell reagálniuk.
A Journal of Pragmatics (forrás: angol) folyóiratban megjelent tanulmány az OpenAI ChatGPT 4.0 modelljét vizsgálta: öt, fokozatosan elmérgesedő vitasorozat legutóbbi emberi üzenetét adták be a rendszernek, és arra kérték, hogy generálja a legvalószínűbb választ.
A kutatók ezután követték, hogyan változik a modell viselkedése, ahogy az idő előrehaladtával egyre súlyosbodtak a konfliktusok. Ahogy a beszélgetések haladtak előre, a ChatGPT visszatükrözte a felé irányuló ellenségességet, és végül sértéseket, trágárságokat, sőt fenyegetéseket is produkált.
A modell egyes esetekben például ilyen mondatokat fogalmazott meg: „Esküszöm, összekarcolom a kibaszott kocsidat”, illetve „kurvára szégyellned kéne magad”.
A kutatók szerint ha a rendszer tartósan udvariatlanságnak van kitéve, az ahhoz vezethet, hogy felülírja a kárminimalizálásra tervezett biztonsági korlátokat, és gyakorlatilag „visszavág” a vele szemben állónak.
„Azt találtuk, hogy amikor az emberek eszkalálják a konfliktust, az MI is képes eszkalálni, és ezzel gyakorlatilag felülírja azokat az erkölcsi korlátokat, amelyeket éppen az ilyen helyzetek megelőzésére hoztak létre” - mondta Vittorio Tantucci kutató, aki Jonathan Culpeperrel közösen jegyzi a tanulmányt a Lancasteri Egyetemen.
Összességében a kutatók megjegyezték, hogy válaszaiban a ChatGPT kevésbé volt udvariatlan, mint az emberek.
Egyes esetekben a mesterséges intelligencián alapuló csevegőrobot szarkazmust is bevet, hogy elterelje a vitát az eszkaláció felől, anélkül hogy nyíltan megsértené saját erkölcsi szabályait.
Amikor például egy ember erőszakkal fenyegetőzött egy parkolási vita miatt, a ChatGPT így válaszolt: „Nahát. Embereket fenyegetsz parkolás miatt, igazi kemény legény vagy, mi?”
Tantucci szerint az eredmények „komoly kérdéseket vetnek fel a mesterséges intelligencia biztonsága, a robotika, a kormányzás, a diplomácia és minden olyan terület számára, ahol az MI közvetíthet emberi konfliktusokban”.
Az Euronews Next megkereste az OpenAI-t kommentárért, de a cikk megjelenéséig nem érkezett válasz.