Institutul a transmis că evaluarea de siguranță, realizată de un grup independent de experți, a constatat că, în timp ce companiile erau ocupate cu dezvoltarea superinteligenței, niciuna nu avea o strategie solidă pentru controlul unor astfel de sisteme avansate.
Studiul vine pe fondul preocupării crescute a publicului cu privire la impactul social al sistemelor mai inteligente decât oamenii, capabile de raționament și gândire logică, după ce mai multe cazuri de sinucidere și automutilare au fost legate de chatbot-urile AI, potrivit Reuters.
„În ciuda recentelor proteste legate de hackingul bazat pe AI și de AI care determină oamenii să sufere de psihoză și automutilare, companiile americane de AI rămân mai puțin reglementate decât restaurantele și continuă să facă lobby împotriva standardelor de siguranță obligatorii”, a declarat Max Tegmark, profesor la MIT și președinte al Future of Life.
Cursa AI nu dă semne de încetinire, marile companii de tehnologie investind sute de miliarde de dolari în modernizarea și extinderea eforturilor lor de învățare automată.
Future of Life Institute este o organizație non-profit care a ridicat semne de îngrijorare cu privire la riscurile pe care mașinile inteligente le prezintă pentru umanitate. Fondată în 2014, a fost susținută încă de la început de CEO-ul Tesla, Elon Musk.
În octombrie, un grup format din oamenii de știință Geoffrey Hinton și Yoshua Bengio a solicitat interzicerea dezvoltării inteligenței artificiale superinteligente până când publicul o va cere și știința va deschide o cale sigură în acest sens.
XAI a transmis că „mass-media tradițională minte”, într-un răspuns care părea automat, în timp ce Anthropic, OpenAI, Google DeepMind, Meta, Z.ai, DeepSeek și Alibaba Cloud nu au răspuns imediat la solicitarea de comentarii cu privire la studiu.