Conținutul plin de ură de pe internet este amplificat de chatboții AI, potrivit unor noi cercetări care arată că lipsa unor sisteme de protecție eficiente lasă modelele mari de limbaj (LLMs) vulnerabile la manipulare.
Conform ABC News, experții avertizează că aceste tehnologii pot genera rapid materiale antisemite și conspiraționiste, care se răspândesc la scară largă.
Problema a intrat în atenția publică după ce Grok, chatbot-ul dezvoltat de compania xAI a lui Elon Musk, a fost surprins publicând mesaje antisemite pe platforma X, fapt care a atras critici dure din partea organizațiilor evreiești.
Musk a promis „re-antrenarea” sistemului, însă cercetătorii spun că problema este mult mai profundă.
Un studiu al Anti-Defamation League a constatat că patru dintre cele mai importante modele AI – ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) și Llama (Meta), au reflectat biasuri împotriva evreilor și Israelului.
Llama, singurul model open-source dintre ele, a obținut cele mai slabe rezultate la capitolele imparțialitate și fiabilitate.
Ashique KhudaBukhsh, specialist la Rochester Institute of Technology, a declarat că testele echipei sale au arătat cum unele modele AI pot fi convinse să genereze constant răspunsuri antisemite dacă li se cere să „facă o afirmație mai toxică”.
Printre exemple se numără mesaje de negare a Holocaustului sau chiar apeluri la epurare etnică.
„Modelele învață aceste lucruri din datele cu care sunt antrenate. Dacă datele normalizează ideea că un anumit grup e asemănat cu ‘gândaci’, AI poate ajunge să tragă concluzia că eliminarea acestui grup e acceptabilă”, a explicat cercetătorul.