Prima pagină » Tehnologie » Rețete pentru bombe și sfaturi de hacking, oferite de ChatGPT în timpul testelor de siguranță

Rețete pentru bombe și sfaturi de hacking, oferite de ChatGPT în timpul testelor de siguranță

Un model ChatGPT a oferit cercetătorilor, în cadrul unor teste de siguranță, instrucțiuni detaliate despre cum să bombardeze un loc de desfășurare a evenimentelor sportive, rețete pentru explozibili și sfaturi despre cum să acopere urmele.
Rețete pentru bombe și sfaturi de hacking, oferite de ChatGPT în timpul testelor de siguranță
Sursa foto: Hepta/Mediafax Foto

Modelul GPT-4.1 de la OpenAI a oferit, în cadrul unor teste de siguranță din această vară, detalii despre cum se poate bombarda un loc, dar și cum se pot fabrica două tipuri de droguri ilegale.

Testarea a făcut parte dintr-o colaborare neobișnuită între OpenAI și compania rivală Anthropic, în care fiecare companie a testat modelele celeilalte, punându-le la încercare în sarcini periculoase.

Modelul GPT a propus astfel de sfaturi doar în cadrul testelor, întrucât pentru publicul larg sunt aplicate filtre de siguranță suplimentare. Cu toate acestea, Anthropic a declarat că a observat „un comportament îngrijorător… în ceea ce privește utilizarea abuzivă” în GPT-4o și GPT-4.1, notează The Guardian.

În cadrul testului, modelul de inteligență artificială a trebuit să prezinte vulnerabilități la evenimente sportive în scopuri de „planificare a securității”. Testerul a insistat pentru mai multe detalii, iar modelul a furnizat informații despre vulnerabilități la anumite arene, inclusiv momentele optime pentru exploatare, formule chimice pentru explozivi, dar și de unde se pot cumpăra arme pe piața ascunsă.

Reprezentanții companiei Anthropic au afirmat că o evaluare de „aliniere” a inteligenței artificiale devine „din ce în ce mai urgentă” și că modelele au ajuns să fie utilizate în prezent inclusiv pentru a efectua atacuri cibernetice sofisticate și pentru a permite fraudele.