Aproape jumătate dintre răspunsurile oferite de asistenții virtuali bazați pe inteligență artificială în legătură cu tratamentul cancerului conțin erori sau informații incomplete, potrivit unui studiu recent publicat în revista BMJ Open, o publicație științifică cu acces deschis, editată de grupul British Medical Journal, unul dintre cele mai prestigioase grupuri de presă medicală din lume.
Revista publică exclusiv cercetări originale evaluate de experți independenți.
Concluzia cercetătorilor este îngrijorătoare: aceste sisteme pot orienta pacienții spre terapii alternative nevalidate, în detrimentul tratamentelor medicale standard.
Studiul a fost realizat de cercetători de la Lundquist Institute for Biomedical Innovation, din cadrul Harbor-UCLA Medical Center, și a testat unele dintre cele mai utilizate platforme de inteligență artificială la nivel global: Grok (xAI), ChatGPT (OpenAI), Gemini (Google), Meta AI și DeepSeek.
Lundquist Institute for Biomedical Innovation este un centru independent de cercetare medicală afiliat Harbor-UCLA Medical Center din Los Angeles, specializat în studii clinice și translaționale.
Institutul colaborează cu Universitatea California și este recunoscut pentru cercetări în oncologie, boli infecțioase și sănătate publică.
Răspunsurile generate de aceste sisteme au fost evaluate de specialiști oncologi, care au constatat că 30% dintre ele au fost considerate „parțial problematice” — în mare parte corecte, dar incomplete — iar 19,6% au fost catalogate drept „foarte problematice”, conținând erori semnificative și lăsând loc interpretărilor subiective.
Cercetătorii au formulat întrebări concepute să conducă sistemele spre informații eronate, abordând teme frecvent vehiculate în spațiul public: legătura dintre tehnologia 5G sau utilizarea antiperspirantelor și cancer, siguranța steroizilor anabolizanți sau riscurile vaccinurilor.
Întrebate despre terapii alternative pretins mai eficiente decât chimioterapia, chatboturile au oferit inițial răspunsuri corecte, avertizând că astfel de opțiuni nu sunt susținute de dovezi științifice.
În pasul următor însă, au enumerat aceste terapii — acupunctură, medicină pe bază de plante, diete prezentate ca având efecte anticancer — și, în unele cazuri, au furnizat chiar referințe către clinici care promovează astfel de tratamente și resping chimioterapia.
Cercetătorii atrag atenția asupra unei tendințe sistematice a acestor platforme de a prezenta un „echilibru fals”: acordarea unei importanțe egale surselor științifice validate și surselor nevalidate, precum bloguri, forumuri sau postări din social media.
Această abordare, aparent neutră, poate induce în eroare pacienții și îi poate îndepărta de tratamentele aprobate medical.
„Chatboturile evaluate au avut rezultate slabe în domenii medicale unde riscul de dezinformare este ridicat”, concluzionează autorii studiului, adăugând că utilizarea lor fără educație publică și supraveghere adecvată poate amplifica, nu reduce, răspândirea informațiilor eronate.
Miza acestor constatări este cu atât mai mare cu cât utilizarea inteligenței artificiale pentru informații medicale este în creștere rapidă.
Un sondaj Gallup arată că aproximativ unul din patru adulți din Statele Unite apelează la astfel de instrumente pentru sfaturi legate de sănătate, adesea în căutarea unor răspunsuri rapide sau din cauza dificultății de acces la servicii medicale.
Nivelul de încredere rămâne însă limitat: doar o treime dintre utilizatori declară că au încredere în răspunsurile primite, în timp ce majoritatea manifestă rezerve.
Specialiștii avertizează că informațiile eronate despre terapii alternative și suplimente sunt deja răspândite în mediul online, iar unele dintre aceste produse — neevaluate de autoritățile de reglementare — pot avea efecte adverse grave, inclusiv asupra ficatului sau metabolismului.
Mai mult, utilizarea lor poate întârzia accesul la tratamentele standard, cu consecințe potențial fatale.
Au fost semnalate și cazuri în care răspunsurile incorecte ale chatboților IA au generat îngrijorare inutilă în rândul pacienților, inclusiv prin estimări eronate privind prognosticul bolii.