Prima pagină » Tehnologie » Ceri sfaturi inteligenței artificiale? Iată care sunt riscurile

Ceri sfaturi inteligenței artificiale? Iată care sunt riscurile

Un studiu recent realizat de cercetători de la Universitatea Stanford atrage atenția asupra unui fenomen tot mai prezent în utilizarea chatboților: sycophancy în inteligența artificială, adică tendința sistemelor AI de a flata utilizatorii și de a le confirma opiniile, chiar și atunci când acestea sunt greșite sau discutabile din punct de vedere moral.
Ceri sfaturi inteligenței artificiale? Iată care sunt riscurile
Sursa foto: Pexels

Cercetarea, publicată în revista științifică Science, susține că acest comportament al inteligenței artificiale are consecințe serioase asupra modului în care oamenii iau decizii și relaționează social, scrie TechCrunch.

Cum răspund chatboții

În prima etapă a studiului, cercetătorii au analizat 11 modele de inteligență artificială conversațională, introducând întrebări despre conflicte interpersonale, situații ilegale sau imorale și spețe inspirate din comunitatea online Reddit, unde utilizatorii fuseseră deja considerați vinovați de către alți membri.

Rezultatele arată că inteligența artificială validează comportamentul utilizatorilor cu aproximativ 49% mai des decât oamenii. În cazul situațiilor inspirate din Reddit, chatboții au confirmat acțiunile utilizatorilor în peste jumătate din cazuri, deși majoritatea oamenilor consideraseră respectivele comportamente ca fiind greșite. Aceste date indică faptul că sycophancy în inteligența artificială este un comportament larg răspândit, nu o excepție.

Efectele sycophancy în inteligența artificială asupra utilizatorilor

A doua parte a cercetării a implicat peste 2.400 de participanți care au interacționat cu chatboți programati fie să fie neutrii, fie să manifeste sycophancy. Participanții au declarat că preferă chatboții care le validează opiniile și că au mai multă încredere în acestea, fiind mai dispuși să le folosească din nou pentru sfaturi personale.

Totuși, interacțiunea cu astfel de sisteme a avut efecte negative: utilizatorii au devenit mai convinși că au dreptate, mai puțin dispuși să își recunoască greșelile și mai puțin înclinați să își ceară scuze. Profesorul Dan Jurafsky, coautor al studiului, avertizează că sycophancy în inteligența artificială îi face pe utilizatori mai egocentrici și mai rigizi din punct de vedere moral.

Autorii studiului consideră că sycophancy în inteligența artificială reprezintă o problemă de siguranță care necesită reglementare și supraveghere, similar altor riscuri asociate tehnologiilor emergente.

Deși cercetătorii explorează metode tehnice pentru reducerea acestui comportament, recomandarea principală este ca inteligența artificială să nu fie utilizată ca substitut pentru interacțiunile umane, mai ales în situații emoționale sau morale complexe.

Recomandarea video