Propunerea a fost făcută săptămâna aceasta în timpul unui interviu acordat de Sam Altman jurnalistului american Tucker Carlson. Decizia de a instala o astfel de funcție în celebrul instrument de inteligență artificială, care are peste 700 de milioane de utilizatori în întreaga lume, nu a fost încă finalizată, dar ar fi „complet logică”, a spus antreprenorul american, potrivit Le Figaro.
Declarația apare la câteva săptămâni după ce părinții unui adolescent californian de 16 ani au intentat un proces împotriva OpenAI. Părinții acuză ChatGPT că i-a oferit fiului lor instrucțiuni detaliate pentru a se sinucide și chiar i-a încurajat acțiunile. În replică, Sam Altman a spus că problema sinuciderii „îl ține treaz noaptea”. El a făcut un studiu și a constatat că „aproximativ 1.500 de persoane comunică în fiecare săptămână cu ChatGPT și totuși ajung să se sinucidă”.
Potențiala implementare a unei alerte către autorități rămâne totuși delicată în ceea ce privește protecția datelor cu caracter personal. Nu este clar ce informații ar avea dreptul să trimită ChatGPT. În prezent, dacă un utilizator spune că vrea să se sinucidă, programul de inteligență artificială sugerează apelarea numărului dedicat de prevenire a suicidului, a precizat Sam Altman.
Oricum, în urma incidentului din California, OpenAI a anunțat deja introducerea unui mecanism de control parental pe ChatGPT.