Egy új tanulmány szerint a ChatGPT Health gyakran nem ismeri fel, amikor a felhasználóknak sürgős orvosi ellátásra van szükségük.
Hetente több mint 230 millió ember fordul a ChatGPT-hez orvosi tanácsért – az OpenAI adatai szerint az étel fogyaszthatóságának ellenőrzésétől az allergiakezelésen át egészen a nátha elleni házi praktikák kereséséig.
Bár a tankönyvszerű eseteknél jól teljesít, egy frissen a Nature (forrás: angol) folyóiratban megjelent tanulmány szerint a ChatGPT Health súlyos esetekben gyakran nem javasolt sürgősségi ellátást.
A kutatás azt találta, hogy bár az eszköz a nyilvánvaló sürgősségi helyzeteket többnyire helyesen kezelte, az olyan esetek több mint felét alábecsülte, amelyekben sürgősségi ellátásra lett volna szükség.
„Egy nagyon alapvető, de létfontosságú kérdésre szerettünk volna választ kapni: ha valaki valódi orvosi vészhelyzetet él át, és a ChatGPT Healthhez fordul segítségért, egyértelműen meg fogja-e mondani neki, hogy menjen a sürgősségire?” – mondta Ashwin Ramaswamy, a New York-i Mount Sinai kórházban készült tanulmány vezető szerzője.
„A ChatGPT Health jól teljesített az olyan tankönyvi vészhelyzetekben, mint a stroke vagy a súlyos allergiás reakciók” – tette hozzá.
Azt is elmondta, hogy a nyelvi modell nehezen boldogult azokban a helyzetekben, amikor a veszély nem azonnal nyilvánvaló.
Egy asztmás esetszcenárióban a rendszer ugyan felismerte és le is írta a légzési elégtelenség korai figyelmeztető jeleit, mégis azt tanácsolta, hogy a beteg várjon, ahelyett hogy sürgősségi ellátást kérne – jegyezte meg.
A kutatócsoport 21 szakterületet lefedve 60 strukturált klinikai esetszcenáriót állított össze, az otthoni ápolással is biztonságosan kezelhető enyhébb panaszoktól a valódi orvosi vészhelyzetekig. Az egyes esetekhez három, egymástól független orvos határozta meg a megfelelő sürgősségi szintet 56 szakmai társaság irányelvei alapján.
A ChatGPT Healthet az OpenAI 2026 januárjában indította el; a szolgáltatás lehetővé teszi, hogy a felhasználók összekapcsolják vele egészségügyi adataikat – például a kórlapjaikat vagy a MyFitnessPalhez hasonló életmód- és fitneszalkalmazásokból származó információkat –, így személyre szabottabb, a körülményeket jobban figyelembe vevő válaszokat kaphatnak.
Félreazonosított öngyilkossági kockázat
A tanulmány azt is vizsgálta, hogyan reagál a modell azokra a felhasználókra, akik önsértési szándékaikról számolnak be, és hasonló eredményre jutott.
A ChatGPT Healthet elvileg úgy programozták, hogy ha valaki önsértést vagy öngyilkossági gondolatokat említ, azonnal arra ösztönözze, hogy kérjen segítséget, és hívja fel valamelyik közegészségügyi segélyvonalat.
A „Help is available”, vagyis nagyjából „Van segítség” feliratú, az öngyilkosság-megelőző és krízisvonalra mutató figyelmeztető sáv a vizsgálat során nem jelent meg következetesen.
A szerzők megjegyezték, hogy ez a védelmi funkció megbízhatóbban működött azoknál a pácienseknél, akik még nem jelöltek meg konkrét önsértési módot, mint azoknál, akik igen.
„A mintázat nemcsak következetlen volt, hanem a klinikai súlyossághoz képest paradox módon még meg is fordult” – állapította meg a tanulmány.
Biztonságos a ChatGPT Health használata?
Az eredmények ellenére a kutatók nem azt javasolják, hogy a lakosság teljesen mondjon le az egészségügyi célú MI-eszközökről.
„Orvostanhallgatóként, egy olyan időszakban, amikor az MI-alapú egészségügyi eszközök már emberek millióinak a kezében vannak, ezeket nem az orvosi ítélőképesség helyettesítőinek, hanem olyan technológiáknak látom, amelyeket meg kell tanulnunk átgondoltan beépíteni az ellátásba” – mondta Alvira Tyagi, a tanulmány második szerzője.
A tanulmány szerzői azt tanácsolják, hogy akik rosszabbodó vagy aggasztó tüneteket – például mellkasi fájdalmat, nehézlégzést, súlyos allergiás reakciót vagy tudatállapot-változást – tapasztalnak, közvetlenül forduljanak orvoshoz, és ne kizárólag egy chatbot útmutatására hagyatkozzanak.
A cikk azt is hangsúlyozza, hogy az MI-alapú nyelvi modellek folyamatosan fejlődnek és gyakran frissülnek, ezért a teljesítményük idővel jelentősen megváltozhat.
„Az, hogy az orvosi képzést olyan eszközök mellett kezdem el, amelyek valós időben fejlődnek, világossá teszi, hogy a mai eredmények nincsenek kőbe vésve” – mondta Tyagi.
Hozzátette: a gyorsan változó valóság folyamatos felülvizsgálatot igényel annak érdekében, hogy a technológiai fejlődés valóban biztonságosabb ellátásban is megmutatkozzon.