Potrivit unui comunicat al companiei, riscul major constă în posibilitatea ca amatori să poată realiza acțiuni periculoase, replicând agenți biologici cunoscuți deja de experți, fără a inova neapărat noi tipuri de amenințări.
OpenAI subliniază necesitatea unor măsuri stricte și aproape perfecte de monitorizare și prevenire, pentru a împiedica folosirea abuzivă a tehnologiei.
Conducerea companiei americane a anunțat intensificarea testelor și implementarea unor noi precauții pentru modelele ce vor avea astfel de capacități, dar nu a oferit un termen exact pentru lansarea primului model cu acest nivel de risc.
Această preocupare este împărtășită și de alte companii din domeniu, precum Anthropic, care a activat deja măsuri speciale pentru modelul Claude 4, din cauza potențialului său de a facilita răspândirea amenințărilor biologice sau nucleare.
OpenAI intenționează să organizeze luna viitoare un eveniment cu organizații nonprofit și cercetători guvernamentali pentru a dezbate riscurile și oportunitățile tehnologiei AI în acest context. De asemenea, compania plănuiește să își extindă colaborarea cu laboratoarele naționale americane și autoritățile pentru a combate eventualele abuzuri ale tehnologiei.
Potrivit lui Chris Lehane, șeful politicilor OpenAI, creșterea capabilităților modelelor AI subliniază importanța ca dezvoltarea globală a acestei tehnologii să fie condusă în principal de Statele Unite, pentru a asigura securitatea și controlul necesare.