Modelul AI „prea periculos pentru public” al Anthropic, compromis de hackeri
Modelul, denumit Mythos AI, este conceput pentru aplicații de securitate cibernetică la nivel enterprise și face parte dintr-un program restrâns de testare, destinat doar unor companii selectate. Potrivit informațiilor publicate de Bloomberg, un grup de utilizatori ar fi reușit să acceseze modelul prin intermediul unui furnizor terț implicat în testare. Accesul ar fi fost facilitat printr-un forum online privat, unde membri interesați de modele AI nelansate public încearcă să obțină acces la tehnologii aflate în dezvoltare. Sursele citate indică faptul că utilizatorii neautorizați nu doar că au reușit să pătrundă în sistem, dar ar fi folosit modelul în mod repetat după obținerea accesului.
Reacția companiei
Un purtător de cuvânt al Anthropic a confirmat că firma analizează situația, însă a precizat că nu există, în acest moment, dovezi că infrastructura internă a companiei ar fi fost compromisă. „Investigăm informațiile apărute și, până acum, nu avem indicii că sistemele noastre au fost afectate”, a transmis compania. Modelul Mythos AI nu a fost lansat public tocmai din cauza capacităților sale avansate în domeniul securității cibernetice. Compania a avertizat anterior că tehnologia „poate genera riscuri fără precedent”, dacă ajunge în mâini nepotrivite. Acesta este testat în cadrul unui program intern, cunoscut drept Project Glasswing, care implică doar un număr limitat de parteneri din tehnologie și sectorul financiar.
Printre companiile care testează modelul se numără giganți precum Amazon, Apple și JPMorgan Chase. De asemenea, instituții financiare precum Goldman Sachs, Citigroup, Bank of America și Morgan Stanley ar fi implicate în testarea tehnologiei. Modelul este utilizat în principal pentru identificarea vulnerabilităților informatice și consolidarea sistemelor de securitate.