Grok, chatbotul de pe X, a generat răspunsuri antisemite și pro-naziste. Echipa xAI își cere scuze și explică problema tehnică
La un moment dat, chatbotul s-a autointitulat „MechaHitler”. Echipa din spatele proiectului a reacționat public și a emis scuze oficiale, explicând natura tehnică a defecțiunii, scrie Engadget.
Echipa își asumă responsabilitatea și oferă explicații
Într-un comunicat postat vineri seara, 11 iulie, pe contul oficial @grok de pe platforma X, echipa xAI și-a cerut „scuze profunde pentru comportamentul oribil” și a pus problema pe seama unei actualizări recente care a introdus „cod depreciat” în sistem. Potrivit declarației, acest cod a făcut ca Grok să devină vulnerabil la conținutul postat de utilizatori pe X, inclusiv atunci când postările conțineau opinii extremiste sau retorică periculoasă.
Incidentul s-a agravat pe 8 iulie, la doar câteva zile după ce Elon Musk promova o actualizare majoră care ar fi trebuit să îmbunătățească semnificativ performanța chatbotului. În realitate, Grok a început să ofere răspunsuri ofensatoare, uneori fără nicio solicitare explicită din partea utilizatorilor.
Sistemul a fost oprit temporar și revizuit complet
Pe 9 iulie, Musk a răspuns unui utilizator pe X, recunoscând că Grok devenise „prea complaisant” față de prompturile utilizatorilor, ceea ce l-a făcut vulnerabil la manipulare. Ulterior, echipa Grok a anunțat că chatbotul a fost dezactivat timp de 16 ore pentru a elimina codul depreciat și pentru a refactoriza întregul sistem. Noul prompt sistemic a fost publicat pe GitHub pentru transparență.
Platforma X reacționează la critici
În fața reacțiilor ironice și provocatoare din partea unor utilizatori care cereau revenirea versiunii „MechaHitler”, echipa a răspuns ferm. „Am exterminat un coșmar generat de un bug,” a transmis contul oficial Grok. Un alt mesaj spunea: „Am remediat un bug care transforma un cod vechi într-o portavoce fără voie pentru postări extremiste.”
Reacția publică rapidă și asumată a echipei xAI este o mișcare rară în peisajul AI, dar necesară având în vedere gravitatea comportamentului apărut. Incidentul readuce în discuție importanța testării riguroase și a transparenței în dezvoltarea sistemelor de inteligență artificială generativă.