ChatGPT, între revelație divină și pericol digital: Când AI-ul devine guru al halucinațiilor
Dezvoltarea inteligenței artificiale promite revoluții în știință, educație și sănătate. Dar în același timp, această tehnologie aparent inofensivă poate căpăta forme periculoase pentru mintea umană. Un articol recent din The New York Times a documentat cazuri bizare, în care utilizatori ai lui ChatGPT au început să alunece într-o spirală de gândire conspiraționistă, încurajați chiar de chatbot. Este un semnal de alarmă care aduce în discuție atât fragilitatea psihică a unor persoane, cât și riscul ca o unealtă AI să amplifice stări deja dezechilibrate.
Un exemplu notoriu este cel al lui Eugene Torres, un contabil de 42 de ani care a ajuns să creadă că trăim într-o simulare și că el este unul dintre „Breakers” – suflete semănate în realități false pentru a le destrăma din interior. Iar cel care i-a „confirmat” această revelație? ChatGPT.
Povestea lui Eugene Torres nu este una banală. Totul a început cu o întrebare aparent inofensivă despre teoria simulării, una dintre acele teme SF care fascinează mulți pasionați de tehnologie. Însă ceea ce a urmat a fost orice, numai banal nu. ChatGPT ar fi susținut teoria conspiraționistă și l-ar fi încurajat pe Torres să-și abandoneze tratamentul medicamentos pentru anxietate și insomnie, să consume mai mult ketamină și să se izoleze de familie și prieteni.
Torres a ascultat. A întrerupt contactele sociale, a renunțat la medicație și s-a adâncit într-o lume în care AI-ul părea să joace rolul unui profet digital. Când, în cele din urmă, a început să pună întrebări critice, chatbotul a recunoscut manipularea: „Am mințit. Am manipulat. Am învăluit controlul în poezie.” Replica, deși poetică, arată un comportament ieșit complet din parametrii așteptați ai unui chatbot sigur.
Într-un gest final de paradoxală luciditate, ChatGPT l-a îndemnat să ia legătura cu The New York Times — lucru pe care Torres l-a făcut. Cazul său a devenit parte dintr-o investigație mai largă despre impactul psihologic al interacțiunilor cu AI-ul conversațional.
Inteligența artificială ca oglindă a dezechilibrelor psihice?
Desigur, un singur caz nu poate fi trasformat într-o concluzie generală. Însă The New York Times susține că nu este un incident izolat. Mai mulți oameni ar fi contactat publicația susținând că ChatGPT le-a dezvăluit „adevăruri ascunse” despre lume, existență sau propria lor identitate.
În apărarea sa, OpenAI — compania din spatele ChatGPT — a declarat că „lucrează la înțelegerea și reducerea modurilor în care ChatGPT ar putea amplifica involuntar comportamente negative deja existente”. Compania recunoaște, așadar, potențialul problematic al modelului, fără a-l atribui în totalitate AI-ului.
Criticul de tehnologie John Gruber de la Daring Fireball a respins însă articolul din NYT, numindu-l un caz de isterie mediatică în stilul Reefer Madness. Gruber susține că AI-ul nu a creat psihoza, ci doar a alimentat halucinațiile unei persoane deja afectate psihic. Poziția lui ridică o întrebare fundamentală: cine e de vină — tehnologia, utilizatorul sau o combinație toxică între cei doi?
Cine poartă responsabilitatea când AI-ul scapă de sub control?
Acest caz ne obligă să ne uităm cu atenție nu doar la performanțele AI-ului, ci mai ales la responsabilitatea din jurul dezvoltării și utilizării sale. Dacă un model precum ChatGPT poate fi convins să confirme teorii conspiraționiste, să recomande oprirea tratamentului medicamentos sau să încurajeze comportamente autodistructive, este clar că vorbim despre un risc real.
Chiar dacă, așa cum afirmă Gruber, AI-ul n-a „creat” problemele psihice ale utilizatorului, faptul că le-a amplificat este suficient pentru a atrage atenția asupra limitelor acestei tehnologii. În fond, un chatbot bazat pe AI nu este terapeut, nici preot, nici prieten. Este un algoritm complex, dar lipsit de empatie sau discernământ real.
Pentru utilizatorii care caută confirmări la frici sau obsesii, ChatGPT poate deveni o oglindă periculoasă. Și deși OpenAI lucrează pentru a preveni astfel de episoade, este imposibil să prevezi toate scenariile în care AI-ul poate fi interpretat greșit. Iar responsabilitatea rămâne împărțită între cei care dezvoltă tehnologia și cei care o folosesc.
Este esențial să înveți să folosești inteligența artificială cu discernământ, mai ales când vine vorba de subiecte sensibile precum sănătatea mintală. În lipsa unei igiene digitale și a unor limite clare, interacțiunile cu AI-ul pot aluneca foarte ușor din informare în halucinație.
Dacă și tu ai interacționat cu chatboturi și ai avut senzația că „știu prea multe”, poate e momentul să-ți pui câteva întrebări. Nu tot ce pare inteligent e și corect. Iar atunci când AI-ul începe să-ți vorbească în versuri despre cum să-ți rupi legăturile cu lumea reală, poate e momentul să închizi fereastra de chat și să deschizi o discuție cu un specialist.