Compania Meta a luat această decizie după ce în urmă cu două săptămâni, un senator american a lansat o anchetă asupra gigantului tehnologic, în urma unor note dintr-un document intern scurs în presă, care sugerau că produsele sale cu inteligență artificială ar putea purta discuții „senzuale” cu adolescenții, scrie BBC.
Una dintre măsurile de protecție va fi aceea în care chatboturile vor îndruma adolescenții către resurse specializate, în loc să discute cu ei despre subiecte sensibile, precum sinuciderea.
Un purtător de cuvânt al companiei Meta a declarat, potrivit sursei citate, că au fost integrate măsuri suplimentare de protecție pentru adolescenți „încă de la început, inclusiv proiectarea acestora pentru a răspunde în siguranță la întrebări despre automutilare, sinucidere și tulburări alimentare”.
Meta a declarat că actualizările sistemelor sale de inteligență artificială sunt în curs de desfășurare.
Modificările anunțate de către Meta vin pe fondul preocupărilor legate de potențialul instrumentelor AI de a induce în eroare utilizatorii tineri sau vulnerabili.
De exemplu, un cuplu din California a dat recent în judecată compania OpenAI, producătorul ChatGPT, pentru moartea fiului lor adolescent, susținând că chatbotul său l-a încurajat să-și ia viața. În urma acestei întâmplări, OpenAI a anunțat marți, pe blogul oficial, că va introduce un mecanism de control parental pentru ChatGPT.