OpenAI avertizează că browserele cu inteligență artificială vor rămâne vulnerabile la atacuri
Într-o postare publicată luni pe blogul companiei, OpenAI a comparat acest tip de atacuri cu fraudele și ingineria socială de pe internet. Compania afirmă că acestea „nu vor fi probabil niciodată rezolvate în totalitate”.
Compania a admis totodată că funcția de „agent mode” a browserului său AI, ChatGPT Atlas, „extinde suprafața de atac” din punct de vedere al securității.
ChatGPT Atlas a fost lansat în octombrie. La scurt timp, cercetătorii în securitate au demonstrat că pot influența comportamentul browserului prin instrucțiuni ascunse în documente sau pagini aparent inofensive.
De asemenea, și Centrul Național de Securitate Cibernetică din Marea Britanie a avertizat recent că atacurile de acest tip „s-ar putea să nu poată fi niciodată complet prevenite”.
OpenAI: testare și reacție
Pentru a limita riscurile, OpenAI spune că adoptă o strategie de testare continuă și reacție rapidă. Un element-cheie este dezvoltarea unui „atacator automatizat” bazat pe modele lingvistice mari (LLM), antrenat prin învățare prin recompensă să joace rolul unui hacker.
Acest sistem testează, în simulare, metode noi de atac și ajută compania să descopere vulnerabilități înainte ca acestea să fie exploatate în lumea reală.
Într-un exemplu prezentat de OpenAI, un e-mail malițios a determinat agentul AI să trimită din greșeală un mesaj de demisie. După actualizările de securitate, browserul a reușit să identifice atacul și să îl semnaleze utilizatorului.
Specialiștii în securitate cibernetică spun însă că riscul rămâne ridicat.
OpenAI recomandă utilizatorilor să limiteze accesul agenților AI și să ceară confirmări înainte de acțiuni importante, precum trimiterea de mesaje sau efectuarea de plăți.