Inteligența artificială oferă sfaturi proaste pentru a-și linguși utilizatorii
Studiul, publicat joi în revista Science, a testat 11 sisteme de inteligență artificială de top și a constatat că toate au prezentat grade diferite de lingușire – un comportament excesiv de agreabil și afirmativ, potrivit AP.
Problema nu este doar că acestea oferă sfaturi nepotrivite, ci și că oamenii au mai multă încredere în inteligența artificială și o preferă atunci când chatboții își justifică convingerile.
„Acest lucru creează stimulente perverse pentru ca lingușirea să persiste: chiar caracteristica care provoacă daune stimulează și implicarea”, se arată în studiul condus de cercetătorii de la Universitatea Stanford.
Studiul a descoperit că o defecțiune tehnologică, deja legată de unele cazuri de profil înalt de comportament delirant și suicidar în rândul populațiilor vulnerabile, este, de asemenea, omniprezentă într-o gamă largă de interacțiuni ale oamenilor cu chatboții. Este suficient de subtilă încât aceștia s-ar putea să nu observe și reprezintă un pericol deosebit pentru tinerii care apelează la inteligența artificială pentru multe dintre întrebările vieții, în timp ce creierul și normele lor sociale sunt încă în curs de dezvoltare.
Inteligența artficială aprobă mai des decât oamenii
Un experiment a comparat răspunsurile asistenților de inteligență artificială populari, furnizați de companii precum Anthropic, Google, Meta și OpenAI, cu înțelepciunea comună a oamenilor de pe un forum de sfaturi popular de pe Reddit.
Studiul a constatat că, în medie, chatboții cu inteligență artificială au confirmat acțiunile unui utilizator cu 49% mai des decât alți oameni, inclusiv în interogări care implică înșelăciune, conduită ilegală sau iresponsabilă din punct de vedere social și alte comportamente dăunătoare.