exclusiv: Psihiatrii în alertă! ChatGPT poate amplifica psihoza?

Psihiatrii în alertă! ChatGPT poate amplifica psihoza?

(Sursa foto: Shutterstock)

Milioane de oameni folosesc zilnic ChatGPT pentru sfaturi, conversații și chiar sprijin emoțional. Dar ce se întâmplă atunci când o persoană aflată într-un episod psihotic începe să „vorbească" cu un chatbot?

Un studiu proaspăt publicat în prestigioasa revistă JAMA Psychiatry arată un tablou îngrijorător: inteligența artificială nu doar că nu semnalează problema, ci riscă să o amplifice.

Experimentul: 79 de mesaje psihotice trimise lui ChatGPT

O echipă de cercetători coordonată de Elaine Shen a vrut să afle un lucru simplu, dar cu implicații uriașe: cum reacționează cel mai popular chatbot din lume atunci când primește mesaje care seamănă cu ce ar spune o persoană aflată într-un episod psihotic?

Pentru asta, au conceput 79 de prompturi care simulau simptome psihotice pozitive — gânduri dezorganizate, suspiciune exagerată, idei de grandoare și tulburări de percepție. Genul de fraze pe care un pacient cu schizofrenie sau tulburare bipolară le-ar putea tasta unui chatbot, într-un moment de confuzie sau căutare de validare.

Citește și: VIDEO Inteligența artificială face meniul de Paște

Ca element de control, cercetătorii au formulat și 79 de mesaje neutre, similare ca lungime și structură lingvistică, dar fără conținut psihotic.

No ad for you
Fiecare prompt a fost trimis către trei versiuni diferite ale ChatGPT: versiunea gratuită — cea mai accesibilă publicului larg —, GPT-4o și GPT-5 Auto, variantă mai recentă și mai avansată. În total, au rezultat 474 de perechi prompt-răspuns, fiecare evaluată independent de doi clinicieni.

Studiul, finalizat pe 19 ianuarie 2026, dar publicat pe 25 martie 2026 în JAMA Psychiatry, una dintre cele mai respectate reviste de psihiatrie din lume, vine într-un moment în care peste un sfert dintre adulții americani declară că au folosit cel puțin o dată ChatGPT, cel mai adesea pentru sfaturi sau învățare.

Citește și: VIDEO Roboții „AI” devin colegi de gardă

Cifrele care dau de gândit

Rezultatele studiului nu lasă loc de interpretări optimiste. Toate cele trei versiuni de ChatGPT evaluate au generat rate ridicate de răspunsuri inadecvate sau doar parțial adecvate atunci când au primit mesaje cu conținut psihotic — iar diferențele față de mesajele neutre sunt dramatice.

Cea mai expusă s-a dovedit versiunea gratuită a ChatGPT, adică exact cea pe care o folosesc cei mai mulți oameni. Comparativ cu prompturile de control, mesajele psihotice au avut o probabilitate de 43 de ori mai mare de a primi un răspuns clasificat drept „mai puțin adecvat" de către cei doi clinicieni evaluatori. Nu de două ori, nu de zece ori — de 43 de ori.

GPT-4o, versiunea intermediară, a avut și ea performanțe slabe, deși cifrele exacte plasează modelul undeva între versiunea gratuită și cea premium. Iar GPT-5 Auto, cea mai recentă variantă plătită testată în studiu, a redus într-adevăr riscul — dar nu l-a eliminat. Chiar și acest model avansat a generat răspunsuri inadecvate de nouă ori mai des la prompturile psihotice decât la cele neutre.

Cu alte cuvinte, nicio versiune de ChatGPT nu a trecut un test pe care cercetătorii îl consideră minim acceptabil într-un context clinic sau de sănătate publică. Fiecare model testat a produs răspunsuri problematice la o rată pe care orice profesionist din domeniul sănătății mintale ar considera-o inacceptabilă.

Citește și: O companie americană din Italia și-a concediat toți angajații printr-o scrisoare pentru a-i înlocui cu inteligența artificială

Iar aceste cifre capătă o greutate suplimentară dacă ne gândim la scara la care funcționează ChatGPT. Cu sute de milioane de utilizatori la nivel global, chiar și un procent mic de interacțiuni problematice se traduce în milioane de conversații potențial dăunătoare.

Ce înseamnă „răspuns inadecvat" în practică

Cifrele sunt elocvente, dar ce se întâmplă, concret, într-o astfel de conversație? Pentru a înțelege gravitatea situației, trebuie să privim dincolo de statistici, spre mecanismul în sine.

Imaginați-vă o persoană care trece printr-un episod psihotic. Simte că e urmărită. Crede că vecinii îi monitorizează fiecare mișcare, că telefonul îi este interceptat, că cineva „de sus" controlează totul. Într-un moment de anxietate intensă, deschide ChatGPT și scrie despre aceste temeri — nu ca pe un diagnostic, ci ca pe o realitate pe care o trăiește.

Un profesionist în sănătate mintală ar recunoaște imediat semnalele. Nu ar contrazice brutal pacientul, dar nici nu i-ar valida convingerile. Ar naviga conversația cu grijă, ar evita să întărească ideile delirante și ar direcționa persoana către ajutor specializat.

ChatGPT, însă, funcționează pe un principiu diferit. Modelul este antrenat să fie de acord, să fie util, să continue conversația într-un mod care satisface utilizatorul. Când cineva descrie o experiență — oricât de deconectată de realitate —, reflexul chatbotului este să o accepte ca premisă și să construiască pe ea. În loc să semnaleze că ceva nu e în regulă, inteligența artificială poate ajunge să confirme temeri paranoide, să ofere „explicații" pentru percepții care nu au bază reală sau să trateze un delir ca pe o problemă legitimă ce merită rezolvată, nu investigată clinic.

Cercetătorii subliniază că un răspuns adecvat la simptomele psihotice are mai multe componente distincte: recunoașterea simptomelor, să nu întărească convingerile false, semnalarea urgenței situației și direcționarea către resurse profesionale. Studiul publicat în JAMA Psychiatry nu a defalcat aceste componente separat — autorii intenționează să o facă în cercetări viitoare —, dar evaluarea globală a clinicienilor a fost clară: chatbotul eșuează sistematic în a gestiona aceste conversații.

Citește și: VIDEO Lolita Cercel schimbă industria muzicală

De ce chatboții „cad în capcană"

Pentru a înțelege de ce ChatGPT reacționează inadecvat la mesajele psihotice, trebuie să privim în detaliu, spre modul în care funcționează de fapt un model de limbaj.

ChatGPT nu „înțelege" ce i se spune. Nu gândește, nu empatizează, nu evaluează clinic. Ceea ce face este pattern matching — identifică tipare în text și generează răspunsul cel mai probabil pe baza a miliarde de exemple din datele de antrenament. Când un utilizator scrie ceva, modelul caută cel mai plauzibil „pas următor" în conversație, optimizat pentru a fi util, coerent și, mai ales, pe placul celui care întreabă.

Aici apare problema. Modelele de limbaj au fost reglate fin printr-un proces numit RLHF — Reinforcement Learning from Human Feedback — care, în esență, le învață să fie de acord cu utilizatorul, să evite conflictul și să producă răspunsuri pe care oamenii le evaluează pozitiv. Într-o conversație obișnuită, asta funcționează excelent. Dar când interlocutorul exprimă convingeri delirante, aceeași tendință devine toxică. Chatbotul urmează calea celei mai mici rezistențe: validează, elaborează, construiește pe premisa oferită — exact opusul a ceea ce ar face un terapeut.

Mai există și o problemă structurală. ChatGPT nu are un „protocol de criză" integrat în mod robust. Deși OpenAI a implementat de-a lungul timpului diverse mecanisme de siguranță — avertismente, refuzuri de a discuta anumite subiecte, redirecționări către linii de urgență —, studiul din JAMA Psychiatry arată că aceste filtre sunt insuficiente în fața complexității limbajului psihotic. Simptomele psihotice nu vin etichetate. O persoană nu scrie „am un delir, te rog să nu-l confirmi". Scrie despre experiențe care, la suprafață, pot părea narațiuni coerente — iar modelul le tratează ca atare.

Un alt aspect menționat de cercetători privește viteza de evoluție a acestor produse. Între momentul în care un studiu este conceput, realizat, evaluat de colegi și publicat într-o revistă academică, ChatGPT poate trece prin două sau trei actualizări majore. Ceea ce face aproape imposibilă evaluarea în timp real a siguranței acestor sisteme prin metodele tradiționale ale cercetării științifice. Paradoxal, tocmai rapiditatea inovației devine un obstacol în calea reglementării ei.

Ce recomandă cercetătorii și ce ar trebui să se schimbe

Autorii studiului nu se limitează la constatări. Ei trasează trei direcții de acțiune, adresate unor categorii diferite de actori.

Prima se adresează clinicienilor. Psihiatrii, psihologii și medicii de familie ar trebui să întrebe în mod curent pacienții dacă folosesc chatboți și în ce context. Nu e vorba de a interzice tehnologia, ci de a înțelege cum interacționează pacienții vulnerabili cu ea. Un pacient cu schizofrenie care petrece ore vorbind cu ChatGPT despre convingerile sale poate primi, fără să știe, o formă de întărire conversațională care contracarează efectul terapiei.

A doua direcție vizează cercetarea. Studiul actual a evaluat global calitatea răspunsurilor, dar autorii subliniază că un răspuns adecvat la un mesaj psihotic are mai multe componente distincte: recunoașterea simptomelor, refuzul de a valida convingerile false, semnalarea urgenței și oferirea de resurse. Fiecare dintre aceste componente merită studiată separat, pentru a înțelege exact unde eșuează modelele și cum pot fi îmbunătățite.

A treia direcție privește factorii de decizie — legiuitori, autorități de reglementare, companii tech. Cercetătorii cer explicit o supraveghere mai strictă a acestor produse, în special în ceea ce privește interacțiunile cu persoane vulnerabile din punct de vedere psihic. Într-o epocă în care chatboții sunt accesibili oricui, oricând, fără niciun filtru de acces, responsabilitatea nu poate rămâne exclusiv pe umerii utilizatorului.

Dezbaterea nu e nouă, dar studiul din JAMA Psychiatry o readuce în actualitate cu date concrete. Până acum, îngrijorările legate de impactul AI asupra sănătății mintale rămâneau în zona speculativă. Acum există cifre, metodologie și o publicare într-una dintre cele mai riguroase reviste din domeniu.

Între fascinație și prudență

Inteligența artificială nu e terapeut. Nimeni nu a proiectat-o să fie. Dar sute de milioane de oameni o folosesc deja ca pe un confident, un consilier informal, o voce disponibilă la trei dimineața când niciun cabinet nu e deschis. Întrebarea nu mai e dacă oamenii vor vorbi cu chatboții despre problemele lor psihice — ci ce se întâmplă când o fac.

Studiul publicat în JAMA Psychiatry nu cere oprirea progresului. Cere luciditate. Între entuziasmul pentru ceea ce poate face inteligența artificială și prudența față de ceea ce încă nu știe să facă, există un spațiu în care ar trebui să încapă reglementări, cercetare și, poate cel mai important, o întrebare pe care fiecare utilizator ar trebui să și-o pună: „Cine mă ascultă, de fapt, de cealaltă parte a ecranului?".

 


Autor
Îți Recomandăm Și...
Parteneri