Az OpenAI nemrég bemutatott ChatGPT Health szolgáltatása kapcsán íme néhány szempont, amelyet érdemes mérlegelni, mielőtt orvosi tanácsért MI‑chatbotokhoz fordulunk.
Mivel emberek százmilliói fordulnak tanácsért csevegőrobotokhoz, csak idő kérdése volt, hogy a techcégek kifejezetten egészségügyi kérdések megválaszolására fejlesszenek programokat.
Januárban az OpenAI bemutatta a ChatGPT Health-et, a vállalat csevegőrobotjának egy új változatát, amely a cég szerint képes a felhasználók kórlapjait, életmódalkalmazásait és viselhető eszközeinek adatait elemezni, hogy választ adjon egészséggel és betegségekkel kapcsolatos kérdésekre.
Jelenleg várólista van a programra. A rivális MI-cég, az Anthropic Claude nevű csevegőrobotjának egyes felhasználóinak kínál hasonló funkciókat.
Mindkét cég hangsúlyozza, hogy a nagy nyelvi modelleknek nevezett programjaik nem helyettesítik a szakszerű ellátást, és nem alkalmasak betegségek diagnosztizálására. Inkább úgy látják, hogy a chatbotok segíthetnek a bonyolult vizsgálati eredmények összefoglalásában és érthetővé tételében, az orvosi vizitre való felkészülésben, illetve a kórlapokban és alkalmazásadatokban megbúvó fontos egészségi trendek elemzésében.
Csakhogy mennyire biztonságosak és pontosak ezek a chatbotok az egészségi állapot és adatok elemzésében? És valóban rájuk kell-e hagyatkozni?
Íme néhány szempont, amit érdemes átgondolni, mielőtt csevegőrobottal beszélne az egészségéről:
A chatbotok személyre szabottabb információt adhatnak, mint egy Google-keresés
Egyes orvosok és kutatók, akik dolgoztak a ChatGPT Health-tel és hasonló programokkal, a jelenlegi helyzethez képest előrelépésnek tartják ezeket az eszközöket.
Az MI-platformok nem hibátlanok, időnként „hallucinálnak”, vagy akár rossz tanácsokat (forrás: angol) is adhatnak, az általuk nyújtott információk azonban nagyobb eséllyel személyre szabottak és konkrétak, mint amit a páciensek egy egyszerű Google-kereséssel találnának.
„Az alternatíva gyakran az, hogy semmi sincs, vagy a páciens találomra dönt” - mondta dr. Robert Wachter, a Kaliforniai Egyetem (San Francisco) orvostechnológiai szakértője. „Ha ezeket az eszközöket megfontoltan használjuk, szerintem hasznos információkat kaphatunk.”
Olyan országokban, mint az Egyesült Királyság vagy az Egyesült Államok, ahol az orvosi időpontokra heteket kell várni, a sürgősségi ellátásban pedig gyakran órákig tart a várakozás, a chatbotok sok esetben segíthetnek elkerülni a felesleges pánikot, és időt spórolhatnak.
Ugyanakkor arra is felhívhatják a figyelmet, ha a tünetek veszélyesek, és feltétlenül valódi egészségügyi szakembernek kell megvizsgálnia a beteget.
Az újabb chatbotok egyik előnye, hogy a felhasználó kórtörténetének ismeretében válaszolnak a kérdésekre, beleértve a felírt gyógyszereket, az életkort és az orvosi feljegyzéseket.
Még ha nem is engedélyezi az MI számára a saját egészségügyi adataihoz való hozzáférést, Wachter és más szakértők azt javasolják, hogy a chatbotnak adott válaszok javítása érdekében adjon meg minél több részletet.
Aggasztó tünetek esetén kerülje az MI-t
Wachter és mások hangsúlyozzák, hogy bizonyos helyzetekben nem szabad csevegőrobothoz fordulni, hanem azonnali orvosi ellátásra van szükség. Ilyen például a nehézlégzés, a mellkasi fájdalom vagy az erős fejfájás, amelyek akár sürgősségi állapotra is utalhatnak.
Kisebb sürgősségű helyzetekben is „egészséges szkepszissel” kell viszonyulni az MI-programokhoz - mondta dr. Lloyd Minor a Stanford Egyetemről.
„Ha komoly orvosi döntésről van szó, de még egy kisebb egészségügyi kérdésben sem szabad kizárólag arra támaszkodni, amit egy nagy nyelvi modelltől kapunk” - mondta Minor, aki a Stanford orvosi karának dékánja.
Még kevésbé bonyolult vagy gyakori esetekben, például policisztás ovárium szindróma (PCOS) esetén is jobb lehet valós orvossal konzultálni, mivel az állapot egyénenként nagyon eltérő lehet, ami a kezelési tervet is befolyásolja.
Gondolja át az adatvédelmet, mielőtt egészségügyi adatokat tölt fel
Az MI-robotok által kínált előnyök nagy része azon alapul, hogy a felhasználók megosztják velük személyes egészségügyi adataikat. Fontos azonban tudni, hogy amit egy MI-céggel megoszt, arra nem vonatkozik az Egyesült Államok szövetségi adatvédelmi jogszabálya, amely normál esetben az érzékeny orvosi információkat védi.
A közismert HIPAA-törvény pénzbírságot, sőt börtönbüntetést is kilátásba helyez az orvosokkal, kórházakkal, biztosítókkal vagy más egészségügyi szolgáltatókkal szemben, ha jogosulatlanul hoznak nyilvánosságra kórlapokat. A jogszabály azonban nem vonatkozik a csevegőrobotokat fejlesztő vállalatokra.
„Amikor valaki a teljes kórlapját feltölti egy nagy nyelvi modellbe, az egészen más, mint amikor egy új orvosnak adja oda” - mondta Minor. „A fogyasztóknak tisztában kell lenniük azzal, hogy a két helyzetben teljesen más adatvédelmi szabályok érvényesek.”
Az OpenAI és az Anthropic egyaránt azt állítja, hogy a felhasználók egészségügyi adatait elkülönítik a többi adattól, és további adatvédelmi garanciák vonatkoznak rájuk. A cégek nem használják ezeket az információkat a modellek tanítására. A felhasználóknak külön kell hozzájárulniuk az adataik megosztásához, és ezt bármikor visszavonhatják.
A tesztek szerint a chatbotok könnyen hibázhatnak
Az MI körüli lelkesedés ellenére a technológia független tesztelése még gyerekcipőben jár. Az első vizsgálatok azt mutatják, hogy a ChatGPT-hez hasonló programok kiválóan teljesítenek magas szintű orvosi vizsgákon, de gyakran elbizonytalanodnak, amikor emberekkel kell kommunikálniuk.
Az Oxfordi Egyetem 1300 résztvevő bevonásával végzett friss kutatása szerint azok, akik hipotetikus betegségekről MI-chatbotok segítségével tájékozódtak, nem hoztak jobb döntéseket, mint azok, akik online kereséseket vagy a saját megítélésüket használták.
Amikor az MI-chatbotok átfogó, írásos formában kaptak meg orvosi esetleírásokat, az esetek 95 százalékában helyesen azonosították az alapbetegséget.
„Ez nem jelentett gondot” - mondta a tanulmány vezető szerzője, Adam Mahdi, az Oxford Internet Institute munkatársa. „A problémák ott kezdődtek, amikor valódi résztvevőkkel kellett interakcióba lépniük.”
Mahdi és csapata több kommunikációs problémát is azonosított. Az emberek gyakran nem adtak meg elég információt ahhoz, hogy a chatbotok pontosan felismerjék az egészségügyi problémát. Fordított esetben az MI-rendszerek gyakran jó és rossz információk keverékével válaszoltak, a felhasználók pedig nehezen tudták megkülönböztetni a kettőt.
A 2024-ben végzett vizsgálatban még nem a legújabb chatbotváltozatokat, így például a ChatGPT Health-et tesztelték.
Hasznos lehet egy második MI-vélemény
Wachter szerint az egyik fontos fejlesztési irány, hogy a chatbotok képesek legyenek visszakérdezni, és így kulcsfontosságú részleteket kideríteni a felhasználótól.
„Szerintem akkor lesznek igazán jók ezek az eszközök, ha a párbeszédben egy kicsit inkább az orvosokhoz fognak hasonlítani” - mondta Wachter.
Addig is nagyobb biztonságot adhat, ha több chatbot véleményét is kikéri az ember, hasonlóan ahhoz, amikor egy másik orvostól kérünk másodvéleményt.
„Előfordul, hogy ugyanazokat az információkat beírom a ChatGPT-be és a Gemini-be” - mondta Wachter, utalva a Google MI-eszközére. „És ha mindkettő ugyanarra az eredményre jut, egy kicsit biztosabbnak érzem, hogy ez a helyes válasz.”