Un erou transformat în ostatic, imagini ale atacului confundate cu o furtună, un supraviețuitor prezentat ca actor. Marți, AFP și mai mulți experți au criticat Grok, programul de inteligență artificială dezvoltat de Elon Musk, pentru răspândirea a numeroase informații false despre atacul de la Sydney, care a avut loc duminică seara pe plaja Bondi, în timpul sărbătorii evreiești Hanuka.
Atacul, comis de un tată și un fiu care au deschis focul asupra mulțimii, a provocat cel puțin 15 morți și 42 de răniți. Autoritățile australiene l-au descris ca un act „antisemit” și „terorist”.
Cazul lui Ahmed al-Ahmed ilustrează amploarea fiasco-ului informațional, potrivit Le Figaro. Acest bărbat de origine siriană a fost celebrat ca un „erou” în toată Australia după ce un videoclip l-a arătat smulgând o pușcă de la unul dintre atacatori. În timp ce bărbatul grav rănit se afla la spital, Grok a susținut că aceste imagini sunt „un videoclip viral vechi care arăta un bărbat urcând pe un palmier într-o parcare”.
În plus, Grok a sugerat că este vorba despre un „eveniment pus în scenă”. Mai grav, chatbot-ul l-a identificat pe Ahmed al-Ahmed ca fiind un ostatic israelian deținut de Hamas.
Inteligenta artificială nu s-a oprit aici. Când a fost întrebat despre o altă scenă din atac, programul a insistat că este vorba de imagini din furtuna Alfred, care a lovit estul Australiei la începutul acestui an. La insistențele unui utilizator, chatbot-ul a revenit și a recunoscut că imaginile proveneau din atac.
O altă greșeală: după atacul de la Sydney, unii utilizatori au difuzat o imagine a unuia dintre supraviețuitori, susținând în mod fals că este un actor. Termenul este folosit de teoreticienii conspirației pentru a pune la îndoială autenticitatea crimelor în masă și a victimelor pe care le revendică. În acest caz Grok a răspuns cu un mesaj automat: „Mass-media tradițională minte”.