Documente interne citate de publicație arată că gigantul tehnologic vizează ca până la 90% dintre evaluările de risc să fie efectuate de AI, inclusiv în domenii sensibile precum siguranța tinerilor și integritatea conținutului, ce cuprinde dezinformarea, conținutul violent sau hărțuirea online.
Până acum, funcționalitățile noi lansate pe platformele Meta, precum Instagram și WhatsApp, treceau printr-un proces riguros de revizuire umană. În ultimele două luni, însă, compania a accelerat tranziția către AI, impunând echipelor de produs să completeze un chestionar detaliat despre noile funcții. Aceste date sunt apoi analizate de sistemul AI, care emite o decizie instantanee cu zonele de risc identificate și recomandări pentru remediere.
Deși Meta a declarat pentru NPR că va folosi în continuare „expertiză umană” pentru probleme complexe, deciziile de risc considerate „reduse” vor fi delegate în totalitate AI-ului. Însă actuali și foști angajați ai companiei avertizează că acest demers poate duce la neidentificarea unor riscuri serioase, care anterior ar fi fost observate de o echipă umană cu experiență.
Un fost director Meta a subliniat că această automatizare sporită „înseamnă că se creează riscuri mai mari” și că „efectele negative ale unor schimbări de produs vor fi mai greu de prevenit înainte de a produce consecințe reale în lume”.
Decizia Meta vine în contextul publicării celui mai recent raport trimestrial privind integritatea platformei, primul după schimbările controversate din politicile de moderare a conținutului și verificare a faptelor. Raportul a arătat o scădere a cantității de conținut eliminat, dar și o creștere ușoară a cazurilor de hărțuire, bullying și conținut violent.