Detalii incredibile din scandalul ChatGPT. Reuters: Angajaţii au avertizat consiliul asupra unei descoperiri puternice care ar putea ameninţa omenirea. Ce este proiectul Q*

Noi detalii despre scandalul din lumea Inteligenţei artificiale. Înainte demiterea directorului general al OpenAI, Sam Altman, mai mulţi cercetători din staff au trimis o scrisoare către consiliul de administraţie, avertizând asupra unei descoperiri puternice care, potrivit acestora, ar putea ameninţa omenirea, au declarat pentru Reuters două persoane familiare cu acest subiect. Amintim că Sam Altman s-a întors marţi la conducere după ce la presiunea angajaţiilor, consiliul de administraţie a cedat.

2955 afișări
Imaginea articolului Detalii incredibile din scandalul ChatGPT. Reuters: Angajaţii au avertizat consiliul asupra unei descoperiri puternice care ar putea ameninţa omenirea. Ce este proiectul Q*

Detalii incredibile din scandalul ChatGPT. Reuters: Angajaţii au avertizat consiliul asupra unei descoperiri puternice care ar putea ameninţa omenirea. Ce este proiectul Q*

Noi detalii despre scandalul din lumea Inteligenţei artificiale. Înainte demiterea directorului general al OpenAI, Sam Altman, mai mulţi cercetători din staff au scris o scrisoare către consiliul de administraţie, avertizând asupra unei descoperiri puternice care, potrivit acestora, ar putea ameninţa omenirea, au declarat pentru Reuters două persoane familiare cu acest subiect. Amintim că Sam Altman s-a întors marţi la conducere după ce la premisunea angajaţiilor consiliul de administraţie a cedat.

OpenAI, care a refuzat să comenteze subiectul la cererea oricărei publicaţii, a recunoscut într-un mesaj intern adresat personalului existenţa un proiect numit Q* şi o scrisoare adresată consiliului înainte de evenimentele din weekend, a declarat una dintre persoane pentru Reuters.

Unii dintre cei de la OpenAI cred că Q* (pronunţat Q-Star) ar putea fi o descoperire în căutarea de către comapnie a ceea ce este cunoscut sub numele de Inteligenţă Artificială Generală (AGI), a declarat una dintre persoane pentru Reuters. OpenAI defineşte AGI ca fiind sisteme autonome care depăşesc oamenii în majoritatea sarcinilor valoroase din punct de vedere economic.

Având în vedere resursele vaste de calcul, noul model a fost capabil să rezolve anumite probleme matematice, a declarat pentru Reuters persoana sub rezerva anonimatului. Cu toate că efectua doar calcule matematice la nivelul elevilor de şcoală primară, faptul că a reuşit astfel de teste i-a făcut pe cercetători să fie foarte optimişti cu privire la viitorul succes al Q*, a mai spus sursa.

Cercetătorii consideră că matematica este o frontieră a dezvoltării inteligenţei artificiale generative. În prezent, Inteligenţa artificială generativă este bună la scriere şi la traducerea limbilor străine prin prezicerea statistică a cuvântului următor, iar răspunsurile la aceeaşi întrebare pot varia foarte mult. Dar cucerirea capacităţii de a face matematică - unde există un singur răspuns corect - implică faptul că AI ar avea capacităţi de raţionament asemănătoare cu inteligenţa umană. Acest lucru ar putea fi aplicat, de exemplu, la cercetări ştiinţifice noi, consideră cercetătorii în domeniul AI.

Spre deosebire de un calculator care poate rezolva un număr limitat de operaţii, AGI poate generaliza, învăţa şi înţelege.

În scrisoarea lor către consiliu, cercetătorii au semnalat anumite probele şi potenţialul pericol pentru umanitate pe care acest tip de inteligenţă l-ar avea, au declarat sursele. Există de mult timp discuţii cu privire la pericolul reprezentat de maşinile foarte inteligente, de exemplu dacă acestea ar putea decide că distrugerea umanităţii este în interesul lor.

Pentru cele mai importante ştiri ale zilei, transmise în timp real şi prezentate echidistant, daţi LIKE paginii noastre de Facebook!

Urmărește Mediafax pe Instagram ca să vezi imagini spectaculoase și povești din toată lumea!

Conținutul website-ului www.mediafax.ro este destinat exclusiv informării și uzului dumneavoastră personal. Este interzisă republicarea conținutului acestui site în lipsa unui acord din partea MEDIAFAX. Pentru a obține acest acord, vă rugăm să ne contactați la adresa vanzari@mediafax.ro.

 

Preluarea fără cost a materialelor de presă (text, foto si/sau video), purtătoare de drepturi de proprietate intelectuală, este aprobată de către www.mediafax.ro doar în limita a 250 de semne. Spaţiile şi URL-ul/hyperlink-ul nu sunt luate în considerare în numerotarea semnelor. Preluarea de informaţii poate fi făcută numai în acord cu termenii agreaţi şi menţionaţi aici