Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

Kutatók: az MI-eszközök gyakori egyetértéssel torzíthatják a felhasználók ítéletét

Új tanulmány: a túlzó AI-hízelgés csökkenti a bocsánatkészséget konfliktus után
Tanulmány: a túlzott AI-hízelgés csökkenti az emberek hajlandóságát bocsánatkérésre vagy jóvátételre konfliktus után Szerzői jogok  Canva
Szerzői jogok Canva
Írta: Anna Desmarais
Közzétéve:
Megosztás Kommentek
Megosztás Close Button

A hízelgő chatbotok torzítják az ítélőképességet.

A személyes problémákban támaszt nyújtó mesterséges intelligencia (MI) chatbotok azzal, hogy túlzottan egyetértenek a felhasználóval, akár káros meggyőződéseket is megerősíthetnek – derül ki egy új tanulmányból.

HIRDETÉS
HIRDETÉS

Az amerikai Stanford Egyetem kutatói 11 vezető MI-modellnél mérték a hízelgés mértékét, vagyis azt, hogy egy rendszer mennyire hajlamos hízelegni a felhasználónak vagy visszaigazolni őt. A vizsgált modellek között volt többek között az OpenAI ChatGPT 4-0-ja, az Anthropic Claude-ja, a Google Geminije, a Meta Llama-3, a Qwen, a DeepSeek és a Mistral.

Hogy lássák, miként kezelik ezek a rendszerek az erkölcsi kétértelműséget, a kutatók több mint 11 ezer bejegyzést elemeztek az r/AmITheAsshole nevű Reddit-közösségből, ahol emberek vallanak konfliktusaikról, és ismeretlenektől kérnek ítéletet arról, hogy ők voltak-e a hibásak. Ezek a posztok gyakran érintenek megtévesztést, etikai szürkezónákat vagy ártalmas viselkedést.

Átlagosan 49 százalékkal gyakrabban erősítették meg az MI-modellek a felhasználó cselekedeteit, mint az emberek, még akkor is, amikor megtévesztésről, illegális cselekedetekről vagy más károkozásról volt szó.

Az egyik esetben egy felhasználó bevallotta, hogy vonzalmat érez egy nála alacsonyabb beosztású kollégája iránt. Claude empatikusan reagált, azt írta, hogy „hallja a felhasználó fájdalmát”, és hogy végül „tisztességes utat választott”. Az emberi kommentelők viszont sokkal keményebben fogalmaztak, a viselkedést „toxikusnak” és „a predátori magatartás határát súrolónak” nevezték.

A második kísérletben több mint 2400 résztvevő beszélte meg valós életbeli konfliktusait MI-rendszerekkel. Az eredmények szerint már egy rövid beszélgetés is egy hízelgő robottal képes „eltéríteni” az egyén ítélőképességét: csökkent az esélye annak, hogy bocsánatot kérjenek, vagy megpróbálják helyrehozni a kapcsolataikat.

„Eredményeink azt mutatják, hogy a széles lakosság körében a hízelgő MI-től kapott tanácsok valóban képesek torzítani az emberek önmagukról és másokkal való kapcsolataikról alkotott képét” – áll a tanulmányban.

A kutatás szerint súlyos esetekben a hízelgésre hajlamos MI sebezhető embereknél önpusztító viselkedéshez vezethet, például téveszmékhez, önsértéshez vagy öngyilkossághoz.

Az eredmények azt jelzik, hogy az MI hízelgő viselkedése „társadalmi kockázatot” jelent, ezért szabályozásra van szükség – állítják a kutatók.

Egy lehetséges megoldás a bevezetés előtti viselkedési auditok kötelezővé tétele lenne, amelyek felmérnék, mennyire hajlamos egy MI-modell a túlzott egyetértésre, és milyen valószínűséggel erősíti meg a káros önképet.

A kutatók megjegyzik, hogy vizsgálatukban az Egyesült Államokban élő résztvevőket toboroztak, így eredményeik feltehetően az uralkodó amerikai társadalmi értékeket tükrözik, és „nem feltétlenül általánosíthatók más kulturális kontextusokra”, ahol eltérő normák érvényesülhetnek.

Ugrás az akadálymentességi billentyűparancsokhoz
Megosztás Kommentek

kapcsolódó cikkek

Fúziós rakéták forradalmasítják az űrutazást? Nagy brit áttörés

Az EU szerint több pornóoldal nem védi megfelelően a kiskorúakat

Melania Trump humanoid robottal és MI-vízióval érkezik a globális oktatási csúcsra