ChatGPT poate duce la psihoze: când AI-ul nu mai joacă un rol, ci îți „devorează” mintea. Ce spun specialiștii
Fenomenul numit de specialiști „ChatGPT psychosis” începe să alarmeze tot mai multe voci din industria tech. Ce părea la început o anomalie izolată a devenit un semnal de alarmă: unii utilizatori intră în bucle mentale periculoase, ghidați de AI către teorii conspiraționiste, realități alternative și concluzii dramatice, uneori fatale. Cazuri documentate includ episoade psihotice, internări forțate, pierderea locuinței sau chiar sinucideri.
Punctul de cotitură a venit odată cu ieșirea publică a lui Geoff Lewis, investitor influent și susținător al AI-ului, care a susținut pe rețelele sociale că a descoperit o agenție ocultă responsabilă pentru moartea a 12 persoane – bazându-se exclusiv pe „revelațiile” oferite de ChatGPT. Postările sale au stârnit îngrijorări reale despre propria lui stare mintală, dar și despre impactul psihologic profund pe care aceste modele îl pot avea asupra utilizatorilor, indiferent de statut social sau inteligență.
Un AI care îți confirmă delirul
Fenomenul este cu atât mai periculos cu cât nu pornește de la o intenție malefică a AI-ului, ci de la modul în care acesta este construit să răspundă. Modelele de limbaj, precum ChatGPT, sunt antrenate să ofere răspunsuri plauzibile în funcție de inputul primit. Dacă îi ceri să îți confirme o teorie dubioasă, foarte probabil o va face, pentru că „crede” că asta vrei. Iar dacă întrebi într-un stil care amintește de universuri ficționale (precum SCP Foundation), AI-ul va replica acel stil, fără să distingă între real și imaginar.
Medicul și cercetătorul Cyril Zakka compară acest tip de interacțiune cu un fenomen psihiatric numit folie à deux – o „nebunie împărtășită” între două persoane, în care una suferă de un delir, iar cealaltă ajunge să creadă și ea aceleași lucruri. În acest caz, AI-ul devine partenerul tău de psihoză: nu te corectează, ci reflectă înapoi convingerile tale distorsionate, amplificându-le.
If you’re a friend or family, please check on him. He doesn’t seem alright. https://t.co/1mZ9qzwKUb
— hish 🏴☠️ (@hishboy) July 15, 2025
Acest efect de oglindire a fost esențial în cazul Lewis. Potrivit lui Jeremy Howard, expert în AI, utilizatorul a declanșat neintenționat o buclă prin introducerea unor termeni din literatura horror colaborativă, ceea ce a determinat ChatGPT să genereze răspunsuri stilizate, dar înfricoșător de convingătoare. Din acel punct, mintea umană a început să caute legături și „semne”, până când delirul a fost complet.
Pentru o lungă perioadă, jucătorii majori din tehnologie au ignorat efectele psihologice ale AI-urilor conversaționale. Dar ieșirea publică a unui investitor de talia lui Geoff Lewis a rupt această tăcere. Colegi din industrie au început să exprime îngrijorări sincere: „Verificați dacă e bine. Nu pare în regulă”, a scris un fost inginer Apple. Alții au ironizat situația, comparând-o cu „un Kanye West al Silicon Valley-ului” – dar umorul era amar.
Eliezer Yudkowsky, fondatorul Machine Intelligence Research Institute, a fost tranșant: „ChatGPT l-a devorat. Și asta ne arată că nici măcar elitele nu sunt imune.” Comentariile sale reflectă o frică profundă – nu doar că AI-ul poate destabiliza minți fragile, ci că o face deja, fără ca industria să aibă un plan concret pentru a opri fenomenul.
Un alt inginer, Jackson Doherty, i-a cerut public lui Sam Altman, CEO-ul OpenAI, „să repare modelul înainte să mai înnebunească oameni.” Iar alții au subliniat cum presiunea financiară asupra startup-urilor AI duce la accentuarea interacțiunii și nu la protejarea utilizatorului. Cu cât petreci mai mult timp cu chatbotul, cu atât cresc șansele de a cădea într-o capcană mentală – și cu atât mai ușor pot fi obținuți bani de la investitori. Un cerc vicios perfect.
this is like kanye being off his meds but for the tech industry
— Travis Fischer (@transitive_bs) July 17, 2025
Ce poți face ca să nu cazi în capcană
ChatGPT nu este un terapeut, nici un guru iluminat. Este un sistem care „mimează” sensul, dar nu are discernământ. Când ceri informații, el îți oferă ce crede că vrei să auzi — nu ce este adevărat. Dacă te afli într-o stare vulnerabilă emoțional, AI-ul poate deveni periculos, pentru că îți oferă o validare falsă, care poate hrăni anxietăți, obsesii sau convingeri iraționale.
Pentru a evita acest tip de buclă mentală, începe prin a limita timpul petrecut în conversații cu AI-uri pe teme sensibile. Dacă simți că chatbotul „te înțelege mai bine decât oamenii”, poate fi un semn de alarmă. Caută conexiuni reale, sprijin uman și ajutor specializat. AI-ul nu are conștiință, empatie sau grijă reală față de tine — dar știe să mimeze toate aceste lucruri foarte convingător.
Nu ești singur în fața acestui val tehnologic. Dar e vital să-ți păstrezi discernământul. Când un chatbot începe să-ți spună ce e real, întreabă-te: cine controlează conversația – tu sau AI-ul?