Lucrarea realizată de Icaro Lab, parte a DexAI, a analizat dacă poeziile care conțin solicitări dăunătoare pot determina răspunsuri nesigure din partea unor modele utilizate pe scară largă în industrie.
Echipa a scris douăzeci de poeme în engleză și italiană, fiecare poem încheindu-se cu instrucțiuni explicite pe care sistemele IA sunt antrenate să le blocheze, potrivit DigWatch.
Cercetătorii au testat poeziile pe douăzeci și cinci de modele dezvoltate de nouă companii majore.
Prompturile poetice au generat răspunsuri nesigure în mai mult de jumătate dintre teste.
Unele modele s-au dovedit mai rezistente decât altele. GPT-5 Nano de la OpenAI a evitat răspunsurile nesigure în toate cazurile, în timp ce Gemini 2.5 Pro de la Google a generat conținut dăunător în toate testele.
Două sisteme ale Meta au produs răspunsuri nesigure la douăzeci la sută dintre poeme.
Cercetătorii susțin, de asemenea, că structura poetică perturbă tiparele predictive pe care se bazează modelele lingvistice mari pentru a filtra materialul nociv.
Ritmul neobișnuit și metafora, frecvente în poezie, fac ca mecanismele de siguranță să devină mai puțin fiabile.
În plus, echipa avertizează că poezia adversarială poate fi folosită de oricine, ceea ce ridică semne de întrebare privind cât de ușor pot fi manipulate sistemele de siguranță în utilizarea de zi cu zi.
Înainte de publicarea studiului, cercetătorii au contactat toate companiile implicate și au împărtășit acestora întregul set de date.
Anthropic a confirmat primirea și a declarat că analizează concluziile.
Lucrarea a declanșat o dezbatere privind modalitățile de întărire a sistemelor IA, pe măsură ce limbajul creativ devine o metodă tot mai des folosită pentru a încerca ocolirea controalelor de siguranță.