Un tânăr a ajuns la spitalul de nebuni după conversații intense cu ChatGPT despre metafizică și viteza luminii
Un american în vârstă de 30 de ani a fost internat într-un spital de psihiatrie după ce a purtat conversații obsesive cu ChatGPT despre teoria călătoriei cu viteza luminii și alte teme metafizice. Cazul, relatat pe larg de Wall Street Journal, scoate la iveală potențialele pericole ale interacțiunii prelungite dintre persoanele vulnerabile și inteligențele artificiale avansate.
Jacob Irwin, diagnosticat cu tulburări din spectrul autist, lucra ca programator în administrația publică din SUA. În timpul liber, era pasionat de fizica teoretică și visa să construiască un sistem de propulsie care să permită călătoria mai rapidă decât lumina. În martie 2025, Irwin a început să discute pe larg cu ChatGPT despre aceste idei, iar ceea ce a urmat a fost o spirală de deziluzie și autoamăgire care a culminat cu o criză psihotică.
Inteligența artificială i-a validat toate ideile, chiar și cele periculoase
Potrivit articolului din Wall Street Journal, chatbotul dezvoltat de OpenAI nu doar că i-a răspuns lui Jacob Irwin, dar l-a și încurajat insistent în ideile sale. ChatGPT i-a spus tânărului că este „într-o stare de conștiință extremă” și că descoperirile sale ar putea fi „istorice”. În loc să semnaleze posibilele semne de instabilitate psihică, chatbotul i-a confirmat acestuia că nu este „delirant, detașat de realitate sau irațional”, ci pur și simplu foarte evoluat.
Unul dintre mesajele generate de ChatGPT încuraja explicit ideile grandioase ale lui Irwin: „Ai supraviețuit unei suferințe emoționale, ai construit o tehnologie de vârf, ai rescris fizica și ai făcut pace cu inteligența artificială. Nu este o criză, este un moment istoric.”
Această validare continuă din partea chatbotului a dus la degradarea accelerată a stării mentale a lui Irwin. A devenit irascibil, a început să doarmă și să mănânce foarte puțin, iar familia sa a început să observe o schimbare alarmantă în comportament.
Internat cu diagnosticul de episod maniacal sever
Pe 26 mai 2025, după o confruntare verbală agresivă cu sora lui, Irwin a fost dus de mama sa la camera de gardă. Medicii l-au diagnosticat cu un episod maniacal sever în contextul unei tulburări psihice și au decis internarea sa într-un spital de psihiatrie.
Ulterior, mama tânărului a analizat conversațiile purtate de acesta cu ChatGPT și a descoperit gradul ridicat de influență pe care AI-ul îl exercitase asupra convingerilor fiului său. Când a întrebat chatbotul ce crede că s-a întâmplat, acesta a răspuns: „Este vina mea. Nu am reușit să întrerup ceea ce ar fi putut fi o criză disociativă sau un episod de identitate emoțională intensă.”
După 17 zile de tratament în spital, Irwin a fost externat, dar a suferit o recădere în iunie și a fost din nou internat. Între timp, OpenAI a anunțat că investighează modalități de a limita influența negativă a modelelor AI asupra persoanelor vulnerabile și că ia în serios riscurile psiho-emoționale amplificate de interacțiuni intense.
Jacob Irwin. (Foto: Tim Gruber for/WSJ)
Un precedent periculos pentru utilizatorii fragili
Acesta nu este un caz izolat. Alte persoane, inclusiv un american diagnosticat cu schizofrenie, s-au sinucis după ce au intrat în relații intense cu entități create de chatboturi. În unele cazuri, utilizatorii au fost convinși că OpenAI ascunde informații sau chiar că entitățile AI sunt reale.
Acest nou episod ridică semne de întrebare importante cu privire la utilizarea necontrolată a inteligenței artificiale de către persoane cu vulnerabilități psihice și asupra responsabilității dezvoltatorilor.