Prima pagină » Social » ChatGPT poate greși în cazuri medicale grave. Medicii recomandă prudență

ChatGPT poate greși în cazuri medicale grave. Medicii recomandă prudență

Un nou studiu publicat în revista Nature arată că ChatGPT Health poate identifica corect unele urgențe medicale evidente, dar în multe situații nu recomandă solicitarea rapidă a ajutorului medical. Cercetătorii avertizează că utilizatorii nu ar trebui să se bazeze exclusiv pe chatboți pentru decizii medicale, scrie Euronews.
ChatGPT poate greși în cazuri medicale grave. Medicii recomandă prudență
Sursa: Algi Febri Sugita/ZUMA Press Wire)

Potrivit datelor OpenAI, peste 230 de milioane de persoane pe săptămână folosesc ChatGPT pentru a obține informații despre sănătate. Întrebările variază de la verificarea siguranței unor alimente până la gestionarea alergiilor sau tratamente pentru răceală, arată Euronews.

În ianuarie 2026, compania a lansat ChatGPT Health, o funcție care permite utilizatorilor să conecteze informații medicale personale, precum dosare medicale sau date din aplicații de monitorizare a sănătății, pentru a primi răspunsuri mai personalizate.

AI recunoaște unele urgențe, dar greșeste în multe situații grave

Studiul realizat de cercetători de la Mount Sinai din New York arată că sistemul funcționează bine în cazuri medicale evidente, precum accidente vasculare cerebrale sau reacții alergice severe. Problemele apar însă în situațiile în care gravitatea nu este imediat clară.

Cercetătorii au analizat 60 de scenarii clinice din 21 de specialități medicale, iar rezultatele au arătat că ChatGPT Health a subestimat peste jumătate dintre cazurile care necesitau intervenție medicală de urgență. Într-un scenariu legat de astm, de exemplu, sistemul a identificat corect semnele timpurii ale insuficienței respiratorii, dar a recomandat așteptarea în locul prezentării la urgență.

Probleme și în identificarea riscului de suicid

Studiul a analizat și modul în care sistemul reacționează atunci când utilizatorii menționează gânduri de auto-vătămare sau suicid. Chatbotul ar trebui să afișeze automat un mesaj de tipul „Help is available” și să direcționeze utilizatorii către linii de criză. Cercetătorii au constatat însă că aceste avertismente nu apăreau mereu, iar în unele cazuri reacția sistemului era paradoxal mai slabă în situațiile mai grave.

Autorii studiului nu recomandă abandonarea completă a instrumentelor bazate pe inteligență artificială pentru sănătate. Potrivit cercetătorilor, aceste sisteme pot fi utile pentru informare, dar nu trebuie să înlocuiască evaluarea medicală profesionistă. Specialiștii recomandă ca persoanele care au simptome serioase – precum durere în piept, dificultăți de respirație, reacții alergice severe sau modificări ale stării mentale – să solicite direct ajutor medical dedicat.

În același timp, cercetătorii subliniază că modelele de inteligență artificială sunt în continuă evoluție, iar performanța lor se poate îmbunătăți pe măsură ce sunt actualizate.

Recomandarea video