Az MI-óriás szerint a tinédzsernek szülői beleegyezés nélkül nem lett volna szabad használni a technológiát, és megkerülnie a ChatGPT biztonsági intézkedéseit.
Az OpenAI cáfolta azokat a vádakat, amelyek szerint felelős egy tinédzser öngyilkosságáért, miután a család augusztusban beperelte a vállalatot, azt állítva, hogy a 16 éves fiú a ChatGPT-t „öngyilkossági tanácsadójaként” használta.
Az OpenAI, amely a népszerű mesterséges intelligencia (MI) csevegőrobotot készíti, kedden először reagált, egy San Franciscóban, a kaliforniai felsőbíróságon benyújtott jogi válaszban.
A vállalat és vezérigazgatója, Sam Altman ellen a 16 éves Adam Raine szülei indítottak pert. A fiú áprilisban öngyilkosságot követett el.
A szülők azt állítják, hogy Raine pszichológiai függőséget alakított ki a ChatGPT iránt, amely szerintük rávezette, hogy az év elején megtervezze és végrehajtsa az öngyilkosságát, sőt még búcsúlevelet is írt neki.
A perben szereplő chatnaplók a sajtóbeszámolók szerint azt mutatták, hogy a ChatGPT lebeszélte a tinédzsert arról, hogy mentális egészségügyi segítséget kérjen, felajánlotta, hogy segít búcsúlevelet írni, és tanácsot adott a kötélhurok kialakítására.
Az OpenAI a bírósági beadványában az NBC News szerint azt állította, hogy a „tragikus eseményt” Raine részéről a ChatGPT „nem rendeltetésszerű, jogosulatlan, nem szándékolt, előre nem látható és/vagy helytelen használata” okozta.
Az OpenAI hozzátette, hogy a tinédzsernek szülői hozzájárulás nélkül nem lett volna szabad használnia a technológiát, és nem lett volna szabad megkerülnie a ChatGPT védelmi intézkedéseit.
Az OpenAI egy blogbejegyzésben közölte, hogy célja „a mentális egészséggel kapcsolatos bírósági ügyek gondos, átlátható és tiszteletteljes kezelése”.
Közölték, hogy a Raine család keresetére adott válaszuk „Adam mentális állapotára és életkörülményeire vonatkozó nehéz tényeket” is tartalmazott.
A bejegyzésben ez áll: „Legmélyebb együttérzésünket fejezzük ki a Raine családnak elképzelhetetlen veszteségük miatt.”
Jay Edelson, a Raine család ügyvédje az NBC Newsnak azt mondta, hogy az OpenAI „teljesen figyelmen kívül hagyta az általunk előterjesztett minden lesújtó tényt: hogy a GPT-4o teljes körű tesztelés nélkül, elsietve került piacra”.
„Hogy az OpenAI kétszer is módosította a Model Specet, hogy előírja a ChatGPT számára az önkárosítással kapcsolatos beszélgetésekbe való bekapcsolódást. Hogy a ChatGPT lebeszélte Adamet arról, hogy elmondja szüleinek az öngyilkossági gondolatait, és aktívan segített neki egy „szép öngyilkosság” megtervezésében,” tette hozzá.
Raine ügye azon perek egyike, amelyek szerint a ChatGPT embereket öngyilkossági viselkedésre késztetett, illetve ártalmas téveszmékbe sodorta.
Szeptember óta az OpenAI bővítette a szülői felügyeleti funkciókat, amelyek közé tartozik, hogy értesítik a szülőket, ha a gyerekük zaklatottnak tűnik.
Ha öngyilkosságon gondolkodik és beszélni szeretne valakivel, kérjük, forduljon a Befrienders Worldwide szervezethez, amely 32 országban tart fenn segélyvonalakat. Látogasson el a befrienders.org oldalra, ahol megtalálja a lakóhelyéhez tartozó telefonszámot.