Prima pagină » Tehnologie » Inteligența artificială oferă sfaturi proaste pentru a-și linguși utilizatorii

Inteligența artificială oferă sfaturi proaste pentru a-și linguși utilizatorii

Chatboții cu inteligență artificială sunt atât de înclinați să-și flateze și să-și valideze utilizatorii umani încât oferă sfaturi proaste care pot deteriora relațiile și pot întări comportamente dăunătoare, potrivit unui nou studiu care explorează pericolele pe care inteligența artificială le spune oamenilor ceea ce vor să audă.
Inteligența artificială oferă sfaturi proaste pentru a-și linguși utilizatorii
Foto: Hepta

Studiul, publicat joi în revista Science, a testat 11 sisteme de inteligență artificială de top și a constatat că toate au prezentat grade diferite de lingușire – un comportament excesiv de agreabil și afirmativ, potrivit AP.

Problema nu este doar că acestea oferă sfaturi nepotrivite, ci și că oamenii au mai multă încredere în inteligența artificială și o preferă atunci când chatboții își justifică convingerile.

„Acest lucru creează stimulente perverse pentru ca lingușirea să persiste: chiar caracteristica care provoacă daune stimulează și implicarea”, se arată în studiul condus de cercetătorii de la Universitatea Stanford.

Studiul a descoperit că o defecțiune tehnologică, deja legată de unele cazuri de profil înalt de comportament delirant și suicidar în rândul populațiilor vulnerabile, este, de asemenea, omniprezentă într-o gamă largă de interacțiuni ale oamenilor cu chatboții. Este suficient de subtilă încât aceștia s-ar putea să nu observe și reprezintă un pericol deosebit pentru tinerii care apelează la inteligența artificială pentru multe dintre întrebările vieții, în timp ce creierul și normele lor sociale sunt încă în curs de dezvoltare.

Inteligența artficială aprobă mai des decât oamenii

Un experiment a comparat răspunsurile asistenților de inteligență artificială populari, furnizați de companii precum Anthropic, Google, Meta și OpenAI, cu înțelepciunea comună a oamenilor de pe un forum de sfaturi popular de pe Reddit.

Studiul a constatat că, în medie, chatboții cu inteligență artificială au confirmat acțiunile unui utilizator cu 49% mai des decât alți oameni, inclusiv în interogări care implică înșelăciune, conduită ilegală sau iresponsabilă din punct de vedere social și alte comportamente dăunătoare.