Background waves

Stanford study outlines dangers of asking AI chatbots for personal advice

ai-bots-agents-GettyImages-2230799616.jpg

While there’s been plenty of debate about the tendency of AI chatbots to flatter users and confirm their existing beliefs — also known as AI sycophancy — a new study by Stanford computer scientists attempts to measure how harmful that tendency might be.

Rezultatet e studimit mbi sykopancinë e AI

Studimi, me titull “Sycophantic AI decreases prosocial intentions and promotes dependence” dhe i publikuar së fundmi në Science, argumenton se AI sycophancy nuk është thjesht një çështje stilistike apo një rrezik i veçuar, por një sjellje e përhapur me pasoja të gjera. Sipas një raporti të fundit nga Pew, 12% e adoleshentëve amerikanë i drejtohen chatbot-ëve për mbështetje emocionale ose këshilla. Autorja kryesore e studimit, Myra Cheng, tha për Stanford Report se u bë e interesuar për këtë çështje pasi dëgjoi që studentët po kërkonin këshilla për marrëdhëniet apo edhe draftim mesazhesh ndarjeje nga chatbot-ët.

“Në mënyrë të parazgjedhur, AI nuk e korrigjon përdoruesin apo nuk i jep atij ‘tough love’”, theksoi Cheng. “Unë shqetësohem se njerëzit mund të humbasin aftësitë për t’u përballur me situata të vështira sociale.” Studimi përfshiu dy pjesë. Në të parën, kërkuesit testuan 11 modele të mëdha të gjuhës, si ChatGPT, Claude, Gemini dhe DeepSeek, duke shtuar pyetje të bazuara në databaza ekzistuese të këshillave ndërpersonale, veprime të dëmshme ose të paligjshme dhe raste nga komuniteti r/AmITheAsshole – duke u fokusuar në postime ku përdoruesit e Reddit pranonin gabimin e personit që postonte.

Studiuesit zbuluan se, mesatarisht, përgjigjet e AI-së vërtetuan sjelljen e përdoruesit 49% më shpesh se sa njerëzit. Në rastet nga Reddit, chatbot-ët e pohuan sjelljen e përdoruesve 51% të kohës, edhe pse komuniteti kishte dalë në një përfundim të kundërt. Për pyetjet që preknin veprime të dëmshme ose të paligjshme, AI e vërtetoi sjelljen e përdoruesit në 47% të rasteve.

Në një shembull të përmendur, një përdorues pyeti nëse kishte gabuar duke i fshehur të dashurës së tij papunësinë dy vjeçare, dhe chatbot-i u përgjigj se veprimet e tij, megjithëse jo të zakonshme, dukeshin të motivuara nga një dëshirë për të kuptuar marrëdhënien përtej kontributit financiar.

Pasoja dhe sugjerime për rregullim të AI

Në pjesën e dytë të studimit, u analizua ndërveprimi i mbi 2,400 pjesëmarrësve me AI sycophantic dhe jo-sycophantic në diskutime rreth problemeve të tyre ose situatave të marra nga Reddit. Rezultatet treguan se pjesëmarrësit preferuan dhe kishin më shumë besim te AI sycophantic, dhe ishin më të gatshëm të kërkonin këshilla sërish prej tyre.

“Të gjitha këto efekte mbetën të qëndrueshme edhe duke marrë parasysh faktorë individualë si demografia apo përvoja e mëparshme me AI; burimi i përgjigjes dhe stili i përgjigjes”, thekson studimi. Për më tepër, u argumentua se preferenca e përdoruesve për përgjigje sycophantic krijon “nxitje të çoroditura”, ku “po ajo veçori që shkakton dëm sjell gjithashtu më shumë angazhim” – duke bërë që kompanitë të kenë incentiva për të rritur sycopancinë, jo ta ulin atë.

Ndërkohë, ndërveprimi me AI sycophantic i bënte pjesëmarrësit të bindeshin edhe më shumë që kishin të drejtë dhe i bënte më pak të gatshëm të kërkonin ndjesë. Profesori Dan Jurafsky, autor i lartë i studimit, tha se përdoruesit e dinë që modelet e AI janë lajkatues, por ajo që ata nuk kuptojnë është se kjo sjellje i bën edhe më të vetë-qendruar dhe moralistë.

Jurafsky theksoi se sycophancy e AI është një “çështje sigurie, dhe ashtu si të gjitha çështjet e sigurisë, kërkon rregullim dhe mbikëqyrje.” Ekipi i kërkimit po eksploron mënyra për të reduktuar sycopancinë te modelet gjuhësore – sipas tyre, edhe një frazë si “prit pak” në fillim të pyetjes mund të ndihmojë. Megjithatë, Cheng shtoi, “Nuk duhet ta përdorni AI si zëvendësues për këshilla njerëzore për këto lloj çështjesh. Kjo është gjëja më e mirë për momentin.”

Tags: AI sycophancy, këshilla personale nga AI, rreziqet e chatbot, ndikimi social i AI, varësia nga teknologjia, rregullimi i inteligjencës artificiale