Tehnologie

Inteligența artificială nu e medicul tău: ChatGPT, între iluzia diagnosticului instant și nevoia de liniște

Tot mai mulți oameni își introduc simptomele într-un chatbot înainte de a merge la medic. Dar când AI-ul devine sursă de diagnostic, limitele sale pot pune vieți în pericol.

Să spunem că într-o dimineață obișnuită, o femeie de 35 de ani se trezește cu o durere ascuțită în piept și o senzație de amețeală. În loc să sune la medicul de familie sau la 112, deschide telefonul și tastează pe ChatGPT: „Mă doare în piept, îmi tremură mâinile și simt că nu pot respira. Ce am?”.

Răspunsul vine prompt, cu un ton calm și bine formulat: „Aceste simptome pot fi cauzate de stres, atac de panică sau, mai rar, de afecțiuni cardiovasculare. Consultați un specialist pentru un diagnostic corect”. O frază care pare echilibrată. Dar în acel răgaz, femeia decide că nu e urgent și nu merge la spital. Peste două ore, are un infarct.

Povestea e fictivă, dar scenariul e din ce în ce mai comun. Inteligența artificială generativă, în special prin instrumente precum ChatGPT, a devenit o unealtă accesibilă, rapidă și aparent informată, pe care mulți oameni o folosesc ca pe un medic virtual.

Dar ce se întâmplă când această „consultație” digitală înlocuiește actul medical real? Și, mai grav, când oamenii își pun sănătatea și viața în mâinile unui model lingvistic?

De ce căutăm răspunsuri medicale la AI

Motivul pentru care milioane de oameni, în fiecare zi, își caută simptomele pe internet nu e nou. Ceea ce s-a schimbat fundamental în ultimii doi ani este natura instrumentului pe care îl folosim.

Dacă în trecut căutam pe Google „dureri în partea stângă a abdomenului”, azi introducem aceeași întrebare într-un chatbot conversațional, care pare să înțeleagă contextul, să „gândească” și să ofere răspunsuri personalizate.

ChatGPT, Claude, Gemini, Copilot, toate aceste instrumente par a oferi mai mult decât linkuri sau forumuri: oferă răspunsuri directe. Într-un peisaj în care accesul la sistemul medical este greoi, în care consultațiile private sunt costisitoare, iar sistemul public e sufocat, tentația de a întreba un AI ce avem devine aproape inevitabilă.

În plus, se adaugă anxietatea contemporană: nevoia de răspunsuri imediate, presiunea de a continua activitățile zilnice, frica de a părea ipohondri sau „exagerat de precauți”. Iar AI-ul pare ideal: e disponibil 24/7, nu judecă, e politicos și, mai ales, e rapid.

Ce poate și ce nu poate face ChatGPT în medicină

E important să înțelegem ce este ChatGPT: un model lingvistic, antrenat pe cantități uriașe de text pentru a genera răspunsuri cât mai coerente, probabilist corecte, în funcție de întrebările primite.

Nu este o bază de date medicală, nu este un motor de diagnosticare, nu are acces la dosarul tău medical și nu are capacitatea de a verifica informații în timp real sau de a efectua examinări clinice.

În mod responsabil, ChatGPT oferă frecvent avertismente: „Consultați un specialist pentru o evaluare personalizată”. Dar acele mesaje devin, pentru unii utilizatori, zgomot de fundal.

Când răspunsul vine în fraze sigure, calme și bine formulate, crește senzația de încredere. Practic, ChatGPT devine pentru unii ceea ce unii prieteni binevoitori au fost întotdeauna: „doctorul din cercul apropiat”.

Dar diferența e esențială. ChatGPT nu înțelege contextul medical real. Nu poate vedea paloarea feței tale, nu-ți poate palpa abdomenul, nu poate interpreta un ton de voce, nu poate corela date clinice multiple și nu are experiență profesională.

El „ghicește” ce e cel mai probabil să urmeze după o întrebare precum „mă doare capul și îmi curge nasul”, dar fără certitudinea unui diagnostic. E aproximativ, nu definitiv.

Când inteligența artificială devine periculoasă

Unul dintre cele mai mari pericole este iluzia de acuratețe. Pentru utilizatorul obișnuit, răspunsurile AI par informate și convingătoare. Dar aceste răspunsuri pot fi uneori complet greșite sau pur și simplu periculos de vagi.

Fenomenul de „halucinație”, adică generarea unor răspunsuri fictive, fără bază în realitate, este documentat în toate modelele lingvistice, inclusiv cele mai avansate. În medicină, o halucinație înseamnă informare greșită despre un diagnostic, un tratament sau o urgență medicală.

S-au documentat deja cazuri în care utilizatori au primit recomandări de tratamente inexistente, sfaturi complet eronate sau interpretări greșite ale simptomelor.

Într-un studiu din 2024 realizat în SUA, s-a arătat că doar 61% dintre răspunsurile medicale generate de AI pe simptome comune erau complet corecte din punct de vedere clinic. Restul erau fie parțial greșite, fie complet eronate, dar exprimate cu aceeași siguranță lingvistică.

Iar pericolul nu e doar de ordin informativ. Este și unul comportamental: întârzierea unui consult real, întreruperea unui tratament prescris, autodiagnosticarea unei afecțiuni inexistente, sau, dimpotrivă, ignorarea unui semnal real de alarmă.

Ce responsabilitate are utilizatorul? Dar platformele?

OpenAI și alți dezvoltatori menționează clar în interfețele aplicațiilor: „Nu folosiți acest produs pentru diagnostic medical”. Cu toate acestea, realitatea e că utilizatorii o fac în mod curent.

Într-un sondaj informal realizat pe Reddit în 2025, peste 40% dintre participanți au declarat că au întrebat ChatGPT despre simptomele lor fizice sau psihice.

Dintre aceștia, aproape jumătate au spus că au amânat consultul medical real după ce au primit un răspuns „liniștitor” de la AI.

Aici apare o dilemă etică. Este suficient ca o companie să pună un disclaimer? Sau are datoria de a introduce limitări tehnice mai stricte în ceea ce privește răspunsurile medicale?

Într-un scenariu ideal, AI-ul ar putea răspunde la întrebări medicale doar cu referire clară la surse verificate, doar prin citate din ghiduri clinice sau bibliografie, nu prin generalizări contextuale.

Pe de altă parte, apare responsabilitatea educației digitale. Într-o lume în care algoritmii devin tot mai integrați în viața noastră, oamenii trebuie să învețe nu doar să folosească tehnologia, ci și să o interpreteze corect. A ști când să pui o întrebare medicală la AI și când să suni la 112 devine o abilitate de supraviețuire.

Cum poți folosi responsabil ChatGPT în sănătate

Folosirea ChatGPT în domeniul sănătății nu este, în sine, un lucru rău. Din contră, AI-ul poate avea un rol educativ important: poate explica termeni medicali, poate sugera întrebări utile de adresat medicului, poate oferi o perspectivă generală asupra unei afecțiuni cunoscute. Dar toate aceste funcții trebuie folosite cu maturitate și prudență.

Poți învăța să formulezi întrebări precum:

„Care sunt cauzele posibile pentru simptomele X, Y, Z?”

„Ce investigații recomandă ghidurile medicale pentru dureri toracice?”

„Cum aș putea discuta eficient cu medicul despre aceste simptome?”

În acest fel, AI-ul devine un sprijin pentru înțelegere, nu pentru decizie medicală. E diferența între a-ți face o hartă generală și a naviga în orb pe baza unor presupuneri.

Viitorul ar trebui să arate așa: colaborare, nu înlocuire

Există deja prototipuri de AI medical specializat, cum ar fi Med-PaLM 2 sau alte modele antrenate exclusiv pe date clinice, care ar putea deveni asistenți valoroși pentru medici, nu pentru pacienți individuali.

În mâinile profesioniștilor, aceste instrumente pot accelera diagnosticarea, pot sugera tratamente bazate pe ghiduri și pot verifica interacțiuni medicamentoase.

Dar aceste modele sunt departe de a fi perfecte și nu sunt accesibile publicului larg, tocmai pentru a evita riscurile autodiagnosticului. Adevărata valoare a AI-ului medical stă în colaborare, nu în substituție.

O unealtă, nu un doctor

ChatGPT nu este medicul tău. Nu are cunoștințe clinice, nu simte, nu vede, nu evaluează. Este o unealtă lingvistică puternică, dar și o sursă de potențială eroare, mai ales când este tratată cu mai multă încredere decât propriul corp sau decât un specialist real.

Într-o lume în care tehnologia avansează galopant, e vital să nu uităm ce înseamnă medicina reală: un act complex, care combină știință, empatie, experiență și judecată umană.

ChatGPT poate sprijini învățarea, poate calma neliniști temporare, poate da un punct de plecare. Dar nu poate spune ce ai, cum te simți cu adevărat și ce e de făcut.

Pentru asta, există încă medici.