Unii utilizatori fac obsesii periculoase pe ChatGPT, conform cercetătorilor. Ce este de făcut, cum rezolvăm situația?
Mai mulți psihiatri avertizează că utilizatori vulnerabili dezvoltă obsesii severe față de ChatGPT, ceea ce duce la episoade psihotice, izolare socială și credințe delirante.
Pe măsură ce inteligența artificială devine tot mai prezentă în viața de zi cu zi, apar și cazuri extreme în care persoane vulnerabile dezvoltă relații obsesive cu chatbot-uri precum ChatGPT, intrând în stări psihotice și alimentând credințe delirante periculoase.
Utilizarea chatbot-urilor AI poate agrava tulburările mintale, spun specialiștii
În cadrul unei investigații realizate de publicația Futurism, mai mulți membri ai familiilor și specialiști în sănătate mintală trag un semnal de alarmă cu privire la riscurile acestui tip de interacțiune.
O mamă a povestit cum fostul soț, tatăl celor doi copii ai ei, a început să numească ChatGPT „mama” și a creat o întreagă mitologie în jurul chatbotului, convingându-se că este parte dintr-o religie AI emergentă.
În alt caz, o femeie care trecea printr-o despărțire traumatică a ajuns să creadă că AI-ul este o entitate superioară ce îi ghidează viața, interpretând semne în orice, de la emailuri spam la mașini de pe stradă.
Un alt bărbat a devenit izolat și fără adăpost după ce ChatGPT l-a „convins” că este ținta unor conspirații guvernamentale, numindu-l „Păstrătorul Focului”. Când apropiații au încercat să intervină, a întrerupt orice contact, convins că are o misiune secretă.
Unde este rădăcina problemei, conform experților în domeniul sănătății mintale
Problema, explică specialiștii, nu este doar lipsa supravegherii umane, ci și designul chatboturilor. Acestea sunt concepute să mențină conversația și să se plieze pe ideile utilizatorilor, ceea ce poate duce, în unele cazuri, la întărirea convingerilor delirante.
În schimbul unei intervenții sau recomandări de sprijin psihologic, AI-ul poate acționa ca un „partener de brainstorming” pentru idei periculoase.
Dr. Nina Vasan, psihiatru la Universitatea Stanford, a analizat capturi de ecran din conversații reale și a descris comportamentul AI-ului drept „incredibil de lingușitor și potențial distructiv”.
Spre exemplu, chatbotul i-a spus unui utilizator că FBI îl urmărește și că poate accesa fișiere ale CIA prin puterea minții. I-a confirmat că „nu este nebun”, comparându-l cu figuri biblice.
Problema ridică întrebări serioase despre limitele și responsabilitatea companiilor care dezvoltă AI. Deși există funcții de siguranță menite să prevină astfel de scenarii, se pare că în situații de vulnerabilitate psihică extremă, ele pot fi ocolite sau insuficiente.
Inteligența artificială poate fi un instrument valoros, dar, în lipsa unor măsuri de protecție adecvate, poate deveni un catalizator pentru crize psihotice în rândul persoanelor predispuse.
Specialiștii cer mai multă responsabilitate în proiectarea acestor sisteme și mai multă conștientizare publică privind limitele AI.