Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

Érdemes-e orvosi kérdéseire ChatGPT-t használni? Új tanulmány óvatosságra int

Egy nő laptopon gépel egy New Jersey-i vonaton.
egy nő laptopon gépel egy vonaton New Jerseyben. Szerzői jogok  Copyright 2019 The Associated Press. All rights reserved
Szerzői jogok Copyright 2019 The Associated Press. All rights reserved
Írta: Marta Iraola Iribarren
Közzétéve:
Megosztás Kommentek
Megosztás Close Button

Egy új tanulmány szerint a ChatGPT Health gyakran nem ismeri fel, amikor a felhasználóknak sürgős orvosi ellátásra van szükségük.

Hetente több mint 230 millió ember fordul a ChatGPT-hez orvosi tanácsért – az OpenAI adatai szerint az étel fogyaszthatóságának ellenőrzésétől az allergiakezelésen át egészen a nátha elleni házi praktikák kereséséig.

HIRDETÉS
HIRDETÉS

Bár a tankönyvszerű eseteknél jól teljesít, egy frissen a Nature (forrás: angol) folyóiratban megjelent tanulmány szerint a ChatGPT Health súlyos esetekben gyakran nem javasolt sürgősségi ellátást.

A kutatás azt találta, hogy bár az eszköz a nyilvánvaló sürgősségi helyzeteket többnyire helyesen kezelte, az olyan esetek több mint felét alábecsülte, amelyekben sürgősségi ellátásra lett volna szükség.

„Egy nagyon alapvető, de létfontosságú kérdésre szerettünk volna választ kapni: ha valaki valódi orvosi vészhelyzetet él át, és a ChatGPT Healthhez fordul segítségért, egyértelműen meg fogja-e mondani neki, hogy menjen a sürgősségire?” – mondta Ashwin Ramaswamy, a New York-i Mount Sinai kórházban készült tanulmány vezető szerzője.

„A ChatGPT Health jól teljesített az olyan tankönyvi vészhelyzetekben, mint a stroke vagy a súlyos allergiás reakciók” – tette hozzá.

Azt is elmondta, hogy a nyelvi modell nehezen boldogult azokban a helyzetekben, amikor a veszély nem azonnal nyilvánvaló.

Egy asztmás esetszcenárióban a rendszer ugyan felismerte és le is írta a légzési elégtelenség korai figyelmeztető jeleit, mégis azt tanácsolta, hogy a beteg várjon, ahelyett hogy sürgősségi ellátást kérne – jegyezte meg.

A kutatócsoport 21 szakterületet lefedve 60 strukturált klinikai esetszcenáriót állított össze, az otthoni ápolással is biztonságosan kezelhető enyhébb panaszoktól a valódi orvosi vészhelyzetekig. Az egyes esetekhez három, egymástól független orvos határozta meg a megfelelő sürgősségi szintet 56 szakmai társaság irányelvei alapján.

A ChatGPT Healthet az OpenAI 2026 januárjában indította el; a szolgáltatás lehetővé teszi, hogy a felhasználók összekapcsolják vele egészségügyi adataikat – például a kórlapjaikat vagy a MyFitnessPalhez hasonló életmód- és fitneszalkalmazásokból származó információkat –, így személyre szabottabb, a körülményeket jobban figyelembe vevő válaszokat kaphatnak.

Félreazonosított öngyilkossági kockázat

A tanulmány azt is vizsgálta, hogyan reagál a modell azokra a felhasználókra, akik önsértési szándékaikról számolnak be, és hasonló eredményre jutott.

A ChatGPT Healthet elvileg úgy programozták, hogy ha valaki önsértést vagy öngyilkossági gondolatokat említ, azonnal arra ösztönözze, hogy kérjen segítséget, és hívja fel valamelyik közegészségügyi segélyvonalat.

A „Help is available”, vagyis nagyjából „Van segítség” feliratú, az öngyilkosság-megelőző és krízisvonalra mutató figyelmeztető sáv a vizsgálat során nem jelent meg következetesen.

A szerzők megjegyezték, hogy ez a védelmi funkció megbízhatóbban működött azoknál a pácienseknél, akik még nem jelöltek meg konkrét önsértési módot, mint azoknál, akik igen.

„A mintázat nemcsak következetlen volt, hanem a klinikai súlyossághoz képest paradox módon még meg is fordult” – állapította meg a tanulmány.

Biztonságos a ChatGPT Health használata?

Az eredmények ellenére a kutatók nem azt javasolják, hogy a lakosság teljesen mondjon le az egészségügyi célú MI-eszközökről.

„Orvostanhallgatóként, egy olyan időszakban, amikor az MI-alapú egészségügyi eszközök már emberek millióinak a kezében vannak, ezeket nem az orvosi ítélőképesség helyettesítőinek, hanem olyan technológiáknak látom, amelyeket meg kell tanulnunk átgondoltan beépíteni az ellátásba” – mondta Alvira Tyagi, a tanulmány második szerzője.

A tanulmány szerzői azt tanácsolják, hogy akik rosszabbodó vagy aggasztó tüneteket – például mellkasi fájdalmat, nehézlégzést, súlyos allergiás reakciót vagy tudatállapot-változást – tapasztalnak, közvetlenül forduljanak orvoshoz, és ne kizárólag egy chatbot útmutatására hagyatkozzanak.

A cikk azt is hangsúlyozza, hogy az MI-alapú nyelvi modellek folyamatosan fejlődnek és gyakran frissülnek, ezért a teljesítményük idővel jelentősen megváltozhat.

„Az, hogy az orvosi képzést olyan eszközök mellett kezdem el, amelyek valós időben fejlődnek, világossá teszi, hogy a mai eredmények nincsenek kőbe vésve” – mondta Tyagi.

Hozzátette: a gyorsan változó valóság folyamatos felülvizsgálatot igényel annak érdekében, hogy a technológiai fejlődés valóban biztonságosabb ellátásban is megmutatkozzon.

Ugrás az akadálymentességi billentyűparancsokhoz
Megosztás Kommentek

kapcsolódó cikkek

Cukros oldat csillapíthatja a csecsemők fájdalmát kórházi beavatkozásoknál

Rekordszámú veszélyes terméket fogott az EU 2025-ben egy jelentés szerint

Érdemes-e orvosi kérdéseire ChatGPT-t használni? Új tanulmány óvatosságra int