Cazul Altman. Avertisment privind inteligenţa artificială care ar putea ameninţa omenirea

Înainte de cele patru zile de aşa-numit ”exil” al directorului general al OpenAI, Sam Altman, mai mulţi cercetători din companie au scris o scrisoare către consiliul de administraţie în care avertizau asupra unei descoperiri de inteligenţă artificială care ar putea ameninţa omenirea.

878 afișări
Imaginea articolului Cazul Altman. Avertisment privind inteligenţa artificială care ar putea ameninţa omenirea

Cazul Altman. Avertisment privind inteligenţa artificială care ar putea ameninţa omenirea

Scrisoarea şi algoritmul de inteligenţă artificială, care nu au fost raportate anterior, au fost evoluţii cheie înainte de înlăturarea de către consiliul de administraţie a lui Altman, informează Reuters.

Înainte de revenirea sa, marţi, peste 700 de angajaţi au ameninţat că vor demisiona şi se vor alătura susţinătorului Microsoft, în semn de solidaritate cu liderul lor concediat.

Surse ]n exclusivitate ale Reuters au citat scrisoarea ca fiind un factor dintr-o listă mai lungă de nemulţumiri ale consiliului de administraţie care ar fi dus la concedierea lui Altman. OpenAI, care a refuzat să comenteze, a recunoscut într-un mesaj intern adresat personalului un proiect numit Q* şi o scrisoare adresată consiliului înainte de evenimentele din weekend.

Unii dintre cei de la OpenAI cred că Q* ar putea fi o descoperire a ceea ce este cunoscut sub numele de inteligenţă generală artificială (AGI). OpenAI defineşte AGI ca fiind sisteme autonome care depăşesc oamenii în majoritatea sarcinilor importante din punct de vedere economic.

Cercetătorii consideră că matematica este o frontieră a dezvoltării inteligenţei artificiale generative. În prezent, AI generativă este bună la scriere şi la traducerea limbilor străine prin prezicerea statistică a cuvântului următor, iar răspunsurile la aceeaşi întrebare pot varia foarte mult. Dar capacitatea de a face matematică - unde există un singur răspuns corect - implică faptul că AI ar avea capacităţi mai mari de raţionament, asemănătoare cu inteligenţa umană. Acest lucru ar putea fi aplicat, de exemplu, la cercetări ştiinţifice noi, consideră cercetătorii în domeniul AI.

Spre deosebire de un calculator, care poate rezolva un număr limitat de operaţii, AGI poate generaliza, învăţa şi înţelege.

În scrisoarea lor către consiliu, cercetătorii au semnalat probele de inteligenţă artificială şi potenţialul pericol, fără însă a preciza care sunt îngrijorările exacte legate de siguranţă semnalate în scrisoare. Există de mult timp discuţii în rândul informaticienilor cu privire la pericolul reprezentat de maşinile foarte inteligente, de exemplu dacă acestea ar putea decide că distrugerea umanităţii este în interesul lor.

S-a semnalat, de asemenea, activitatea unei echipe de "cercetători în domeniul inteligenţei artificiale", a cărei existenţă a fost confirmată de mai multe surse. Grupul, format prin combinarea echipelor anterioare Code Gen şi Math Gen, explora modul de optimizare a modelelor de inteligenţă artificială existente pentru a le îmbunătăţi raţionamentul şi, în cele din urmă, pentru a efectua lucrări ştiinţifice.

Altman a făcut demersurile de a face din ChatGPT una dintre aplicaţiile software cu cea mai rapidă creştere din istorie şi a atras investiţiile - şi resursele de calcul - necesare de la Microsoft pentru a se apropia de AGI.

Pe lângă faptul că a anunţat o serie de noi instrumente în cadrul unei demonstraţii în această lună, Altman a anunţat, săptămâna trecută, în cadrul unui summit în San Francisco, că, în opinia sa, se întrezăresc progrese majore.

"De patru ori în istoria OpenAI, cea mai recentă dată a fost chiar în ultimele două săptămâni, am reuşit să mă aflu în sală atunci când împingem vălul ignoranţei înapoi şi frontiera descoperirii înainte, iar a face acest lucru este o onoare profesională de neuitat", a spus el la summitul Asia-Pacific Economic Cooperation.

O zi mai târziu, consiliul de administraţie l-a concediat pe Altman.

Pentru cele mai importante ştiri ale zilei, transmise în timp real şi prezentate echidistant, daţi LIKE paginii noastre de Facebook!

Urmărește Mediafax pe Instagram ca să vezi imagini spectaculoase și povești din toată lumea!

Conținutul website-ului www.mediafax.ro este destinat exclusiv informării și uzului dumneavoastră personal. Este interzisă republicarea conținutului acestui site în lipsa unui acord din partea MEDIAFAX. Pentru a obține acest acord, vă rugăm să ne contactați la adresa vanzari@mediafax.ro.

 

Preluarea fără cost a materialelor de presă (text, foto si/sau video), purtătoare de drepturi de proprietate intelectuală, este aprobată de către www.mediafax.ro doar în limita a 250 de semne. Spaţiile şi URL-ul/hyperlink-ul nu sunt luate în considerare în numerotarea semnelor. Preluarea de informaţii poate fi făcută numai în acord cu termenii agreaţi şi menţionaţi aici