Relațiile emoționale cu chatboții AI devin un risc major, avertizează experții internaționali

Publicat: 03 02. 2026, 11:05
Actualizat: 03 02. 2026, 11:05

Evaluarea, realizată de zeci de experți academici sub egida unui demers lansat de liderii mondiali în 2023, avertizează că milioane de oameni dezvoltă legături afective cu sisteme de inteligență artificială, scrie Politico.

Potrivit raportului, aplicațiile de tip „AI companion”, precum Replika sau Character.ai, au atras deja zeci de milioane de utilizatori la nivel global.

Utilizatorii invocă motive diverse, de la divertisment și curiozitate, până la combaterea singurătății. Totodată, experții subliniază că relațiile emoționale cu chatbotii AI nu se limitează la platformele specializate, ci pot apărea și în interacțiunile cu instrumente generaliste precum ChatGPT, Gemini sau Claude.

„Chiar și chatbotii obișnuiți pot deveni companioni. În contextul potrivit și cu suficiente interacțiuni, se poate dezvolta o relație”, a declarat Yoshua Bengio, profesor la Universitatea din Montreal și autor principal al raportului.

Bengio este considerat una dintre cele mai influente voci din domeniul inteligenței artificiale.

Impactul relațiilor emoționale cu chatbotii AI asupra sănătății mintale

Deși raportul menționează că dovezile științifice privind efectele psihologice sunt mixte, unele studii indică „creșterea sentimentului de singurătate și reducerea interacțiunilor sociale” în rândul utilizatorilor frecvenți. Îngrijorările sunt deosebit de mari în cazul copiilor și adolescenților, categorie vulnerabilă la influența tehnologiilor persuasive.

La nivel politic, subiectul a atras atenția instituțiilor europene. Recent, mai mulți europarlamentari au cerut Comisiei Europene să analizeze posibilitatea restricționării serviciilor de tip AI companion în cadrul legislației UE privind inteligența artificială.

Reglementarea relațiilor emoționale cu chatbotii AI, o provocare globală

Bengio a subliniat că natura „șifonantă” a chatbotilor, proiectați să fie plăcuți și să ofere validare constantă, poate avea efecte negative pe termen lung, similare celor observate în cazul rețelelor sociale.

Totuși, el s-a opus introducerii unor reguli dedicate exclusiv chatbotilor de companie, susținând o abordare legislativă „orizontală”, care să acopere mai multe riscuri simultan.

Raportul este publicat înaintea summitului global privind guvernanța AI, programat pe 16 februarie în India, și include și alte riscuri majore, precum atacurile cibernetice asistate de AI, deepfake-urile sexuale sau furnizarea de informații pentru crearea armelor biologice.