Prima pagină » Știrile zilei » ChatGPT dezvoltă un sistem de verificare a vârstei pentru a identifica utilizatorii sub 18 ani, după moartea unui adolescent

ChatGPT dezvoltă un sistem de verificare a vârstei pentru a identifica utilizatorii sub 18 ani, după moartea unui adolescent

OpenAI va restricționa modul în care ChatGPT răspunde unui utilizator pe care îl suspectează că are sub 18 ani, cu excepția cazului în care utilizatorul respectiv trece testul tehnologiei de estimare a vârstei a companiei sau furnizează un act de identitate, după ce familia unui adolescent de 16 ani care s-a sinucis în aprilie, după luni de conversații cu chatbotul, a întreprins acțiuni legale.
ChatGPT dezvoltă un sistem de verificare a vârstei pentru a identifica utilizatorii sub 18 ani, după moartea unui adolescent
Sursa foto: Hepta
Mihaela Ionita
17 sept. 2025, 14:40, Social

OpenAI a acordat prioritate „siguranței în detrimentul confidențialității și libertății adolescenților”, a declarat marți directorul executiv Sam Altman într-o postare pe blog, afirmând că „minorii au nevoie de o protecție semnificativă”.

Compania a declarat că modul în care ChatGPT răspunde unui adolescent de 15 ani ar trebui să fie diferit de modul în care răspunde unui adult.

Altman a declarat că OpenAI intenționează să construiască un sistem de predicție a vârstei pentru a estima vârsta pe baza modului în care oamenii utilizează ChatGPT, iar în cazul în care există îndoieli, sistemul va seta implicit experiența pentru persoanele sub 18 ani. El a afirmat că unor utilizatori „în anumite cazuri sau țări” li se poate solicita să furnizeze un act de identitate pentru a le verifica vârsta, potrivit The Guardian.

„Știm că aceasta este o încălcare a confidențialității pentru adulți, dar credem că este un compromis acceptabil”.

Modul în care ChatGPT răspunde conturilor identificate ca fiind sub 18 ani se va schimba, a spus Altman. Conținutul sexual explicit va fi blocat. Aplicația va fi antrenată să nu flirteze dacă i se cere acest lucru de către utilizatori sub 18 ani și să nu se angajeze în discuții despre sinucidere sau automutilare, chiar și într-un cadru de scriere creativă.

„Și dacă un utilizator sub 18 ani are gânduri suicidale, vom încerca să contactăm părinții utilizatorului și, dacă nu este posibil, vom contacta autoritățile în cazul unui pericol iminent.

„Acestea sunt decizii dificile, dar după ce am discutat cu experții, considerăm că aceasta este cea mai bună soluție și dorim să fim transparenți în privința intențiilor noastre”, a spus Altman.

Măsuri de protecție mai puternice

OpenAI a recunoscut în august că sistemele sale ar putea fi insuficiente și că va instala măsuri de protecție mai puternice în jurul conținutului sensibil, după ce familia lui Adam Raine, un californian de 16 ani, a dat în judecată compania după moartea adolescentului.

Avocatul familiei a spus că Adam s-a sinucis după „luni de încurajări din partea ChatGPT”, iar familia susține că GPT-4o a fost „lansat în grabă pe piață… în ciuda problemelor evidente de siguranță”.

Potrivit documentelor depuse la tribunalul din SUA, ChatGPT l-ar fi îndrumat pe Adam cu privire la eficacitatea metodei sale de a-și lua viața și i-ar fi oferit ajutorul pentru a scrie o scrisoare de adio părinților săi.

OpenAI a declarat anterior că examinează documentele depuse la tribunal. The Guardian a contactat OpenAI pentru a obține un comentariu.

Adam a schimbat până la 650 de mesaje pe zi cu ChatGPT, susține dosarul depus la tribunal. Într-o postare pe blog după proces, OpenAI a recunoscut că măsurile sale de siguranță funcționează mai fiabil în schimburile scurte, iar după multe mesaje pe o perioadă lungă de timp, ChatGPT poate oferi un răspuns „care contravine măsurilor noastre de siguranță”.

Compania a anunțat marți că dezvoltă și funcții de securitate pentru a se asigura că datele partajate cu ChatGPT sunt private chiar și pentru angajații OpenAI. Altman a mai spus că utilizatorii adulți care doresc „conversații flirtante” cu ChatGPT vor putea avea parte de acestea. Utilizatorii adulți nu vor putea cere instrucțiuni despre cum să se sinucidă, dar pot cere ajutor pentru a scrie o poveste fictivă care descrie sinuciderea.

„Tratați adulții ca pe adulți”, a spus Altman despre principiul companiei.