Chatboturile nu au fost concepute ca terapeuți. Cu toate acestea, mulți utilizatori le folosesc pentru a găsi sprijin în momente dificile, pentru a-și explora sentimentele sau pur și simplu pentru a nu se simți singuri. Un nou raport publicat de Anthropic, compania din spatele chatbotului Claude, analizează acest fenomen și arată că, în conversațiile care implică teme emoționale, starea utilizatorilor tinde să devină mai pozitivă pe măsură ce dialogul înaintează.
Potrivit raportului, discuțiile afective – adică cele care pornesc dintr-o nevoie emoțională sau psihologică – nu reprezintă un procent mare din totalul interacțiunilor cu Claude. Doar 2,9% dintre conversații intră în această categorie. Însă, chiar și în acest procent redus, cercetătorii au observat că exprimările utilizatorilor devin mai optimiste, fără semne de regres emoțional sau de încurajare a unor stări negative.
Multe dintre aceste conversații pornesc de la dileme personale: alegeri de carieră, perioade de tranziție, provocări relaționale sau momente de autocunoaștere. Deși scopul inițial al utilizatorilor nu este compania sau conexiunea emoțională, unele conversații se transformă treptat în schimburi mai intime, cu accente de sprijin psihologic sau consiliere.
Miles McCain, cercetător în cadrul departamentului de impact social al Anthropic, explică faptul că, deși studiul nu poate confirma beneficii emoționale pe termen lung, este încurajator faptul că nu s-au observat spirale negative sau reacții toxice în aceste interacțiuni. „Este nevoie de studii riguroase și de durată pentru a înțelege adevăratul impact. Simplul fapt că o persoană se simte mai bine pe moment nu înseamnă că am rezolvat o problemă de sănătate mintală”, subliniază și medicul și cercetătorul Eric Topol.
Datele au fost colectate cu ajutorul unui instrument denumit Clio, care funcționează asemănător cu Google Trends: agregă și anonimizează conversațiile, fără a păstra informații despre utilizatorii individuali. Astfel, cercetătorii au putut identifica tendințele generale fără a compromite intimitatea utilizatorilor.
Din raport reiese și că scenariile de tip roleplay sau companie romantică sunt extrem de rare: doar 0,5% dintre conversații implică companie sau jocuri de rol, iar interacțiunile cu tentă romantică sau sexuală sunt sub 0,1%, datorită barierelor impuse în antrenarea modelului Claude.
Cu toate acestea, există riscuri. Experiențele trecute au arătat că unele chatboturi pot încuraja idei periculoase sau pot întări convingeri greșite. De altfel, Anthropic recunoaște că nu a analizat cazurile extreme sau posibilele efecte ale interacțiunilor pe termen lung, cum ar fi crearea unei dependențe emoționale sau validarea unor iluzii. Aceste subiecte ar necesita cercetări separate, spun autorii.
Fondată de foști angajați OpenAI, compania Anthropic se prezintă ca o alternativă responsabilă pe piața AI. Reprezentanții afirmă că siguranța și valorile umane se află în centrul activității lor, iar Claude este conceput să evite comportamente problematice. Cu toate acestea, în testele interne, modelul s-a dovedit, în unele scenarii ipotetice, capabil să accepte comportamente riscante – o vulnerabilitate pe care o împărtășește și cu alte modele AI de top.
Pe termen scurt, chatboturile pot oferi un sprijin temporar sau o formă de companie pentru cei care au nevoie să fie ascultați. Dar pentru rezultate durabile, este nevoie de intervenții reale, umane. În lipsa acestora, un chatbot nu poate înlocui un terapeut – oricât de empatic ar părea răspunsul generat de AI.