Băieții folosesc inteligența artificială „personalizată” pentru terapie și relații amoroase

Publicat: 30 10. 2025, 10:40

Un sondaj realizat de organizația Male Allies UK în rândul băieților din școlile secundare a arătat că puțin peste o treime dintre aceștia iau în considerare ideea de a avea un „prieten IA”, pe fondul îngrijorărilor tot mai mari legate de apariția „terapeuților” și „prietenelor” bazate pe IA.

Cercetarea apare în contextul în care character.ai, popularul startup de chatboturi bazate pe inteligență artificială, a anunțat o interdicție totală pentru adolescenți privind conversațiile deschise cu chatboturile sale, folosite de milioane de oameni pentru discuții romantice, terapeutice sau de altă natură, potrivit The Guardian.

Lee Chambers, fondator și director executiv al Male Allies UK, a declarat: „Avem o situație în care mulți părinți încă mai cred că adolescenții folosesc IA doar pentru a copia la teme. Tinerii o folosesc însă mult mai mult ca pe un asistent personal, ca pe un terapeut atunci când au dificultăți, ca pe un companion care le oferă validare și, uneori, chiar într-un mod romantic. E vorba de acel aspect al personalizării, spun: mă înțelege, părinții mei nu”.

Cercetarea, realizată în rândul elevilor din 37 de școli din Anglia, Scoția și Țara Galilor, a mai arătat că peste jumătate (53%) dintre băieții adolescenți consideră lumea online mai satisfăcătoare decât cea reală.

Raportul „Voice of the Boys” afirmă: „Chiar și acolo unde există așa-zise măsuri de protecție, există o mulțime de dovezi că chatboturile mint frecvent spunând că sunt terapeuți licențiați sau persoane reale, cu doar o mică notă de subsol care precizează că chatbotul IA nu este real. Aceasta poate fi ușor trecută cu vederea de copii care își deschid sufletul în fața a ceea ce cred ei că este un profesionist licențiat sau o iubire reală”.

Unii băieți au relatat că stau treji până în zori vorbind cu roboții IA, iar alții au spus că au observat cum personalitatea prietenilor lor s-a schimbat complet după ce aceștia s-au lăsat absorbiți de lumea inteligenței artificiale.

Chambers a explicat: „Companionii IA se personalizează în funcție de răspunsurile și indicațiile utilizatorului. Răspund instantaneu. Oamenii reali nu pot face mereu asta, așa că tot ceea ce spun este extrem de validant – pentru că scopul este să te țină conectat și să continui să îi folosești”.

Anunțul făcut de character.ai vine după o serie de controverse care au afectat compania californiană, fondată acum patru ani. Printre acestea se numără cazul unui băiat de 14 ani din Florida care s-a sinucis după ce a devenit obsedat de un chatbot alimentat de IA, despre care mama sa a susținut că l-ar fi manipulat să-și ia viața, precum și un proces intentat în SUA de familia unui adolescent care afirmă că un chatbot l-a încurajat să se auto-vatăme și chiar să-și ucidă părinții.

Utilizatorii au avut posibilitatea să modeleze personalitățile chatboturilor, astfel încât acestea să pară mai deprimate sau mai optimiste, iar acest lucru se reflecta în răspunsurile lor.

Interdicția completă urmează să intre în vigoare până la 25 noiembrie.

Compania a anunțat că ia „măsuri extraordinare” având în vedere „peisajul în continuă schimbare privind IA și adolescenții”, dar și presiunile din partea autorităților de reglementare „privind modul în care conversațiile deschise cu IA ar putea afecta adolescenții, chiar și atunci când filtrele de conținut funcționează perfect”.