Tehnologie

Concediat? Vorbește cu ChatGPT! Sfatul „empatic” al unui șef Xbox stârnește revoltă după valul de concedieri de la Microsoft

În plină explozie a investițiilor în inteligență artificială, Microsoft a concediat aproximativ 9.000 de angajați. Iar dacă te-ai aștepta ca liderii companiei să ofere sprijin real celor afectați, pregătește-te pentru o doză de disonanță cognitivă pe cât de tehnologică, pe atât de bizară. Un producător executiv de la Xbox, companie deținută de Microsoft, a sugerat… ca foștii angajați să își vindece rănile emoționale cu ajutorul ChatGPT.

Matt Turnbull, omul din spatele acestei idei, a postat pe LinkedIn un mesaj care s-a vrut motivator, dar a sfârșit prin a fi interpretat drept una dintre cele mai „surde” reacții la criza umană declanșată de concedieri. Iar internetul n-a întârziat să reacționeze.

9.000 de oameni concediați, 80 de miliarde pentru AI

Concedierile în masă vin într-un moment în care Microsoft anunță o investiție de 80 de miliarde de dolari în inteligență artificială — o mișcare văzută de unii ca o reafirmare a priorităților companiei, dar de alții ca o declarație rece: angajații pot fi înlocuiți, AI-ul e viitorul.

Pe acest fundal tensionat, postarea lui Turnbull a picat ca un trăsnet. În mesajul său, acum șters, el susținea că „acestea sunt vremuri dificile și, dacă treci printr-o concediere sau te pregătești în liniște pentru una, nu ești singur și nu trebuie să treci prin asta de unul singur”. Până aici, nimic anormal.

Dar imediat după, a sugerat ca oamenii să apeleze la „instrumente AI precum ChatGPT sau Copilot” pentru a-și recăpăta claritatea emoțională și încrederea. El a oferit chiar și un exemplu de prompt: „Mă confrunt cu sindromul impostorului după ce am fost concediat. Mă poți ajuta să reinterpretez această experiență într-un mod care să-mi amintească de ce sunt bun?”

Reacțiile? Furia internetului n-a întârziat. Un comentator a ironizat pe X spunând: „Sezonul nou din Severance e incredibil de bun”. Altul, mai tranșant, a scris pe Reddit: „Oricine sugerează cuiva concediat să vorbească cu un chatbot pentru terapie e nebun”. Un utilizator a concluzionat sec: „Cea mai lipsită de empatie și crudă reacție pe care am văzut-o vreodată din partea unui angajat Xbox”.

Problema nu este doar lipsa de empatie, ci și simbolismul propunerii. Compania care i-a concediat le sugerează să vorbească… cu un produs al companiei. E ca și cum un medic ți-ar scoate un organ vital, apoi ți-ar recomanda să te consolezi cu broșura publicitară a clinicii.

Sugestia lui Turnbull a fost percepută nu doar ca o gafă, ci ca o formă de deturnare a responsabilității. În loc să existe consiliere psihologică, pachete de suport emoțional sau sprijin real în tranziția profesională, li se oferă foștilor angajați o conversație cu un algoritm.

Este adevărat că inteligența artificială poate fi utilă în redactarea CV-urilor sau în simularea unor interviuri de angajare. Dar când AI-ul este prezentat ca sprijin emoțional — în locul unui coleg, prieten sau psiholog — se creează o imagine distopică, în care umanitatea e outsourcing-uită către linii de cod.

Mai mult, faptul că mesajul a fost șters sugerează că reacțiile negative au fost nu doar numeroase, ci și suficiente pentru a provoca o retragere rapidă. Nu este clar dacă Turnbull a fost sancționat intern, dar sentimentul general este că sfatul său n-a fost doar neinspirat, ci profund cinic.

Inteligența artificială nu e empatie. Nici prieten.

Poate cel mai grav aspect al întregii situații este confuzia între asistență tehnologică și sprijin emoțional real. Să-i spui cuiva concediat că un chatbot îl poate ajuta cu „claritate emoțională” e ca și cum i-ai sugera unui om în doliu să se uite la un tutorial pe YouTube în loc să meargă la un psiholog.

Turnbull a insistat că intențiile sale erau bune și că „ar fi fost o greșeală să nu încerce să ofere cel mai bun sfat în contextul dat”. Dar tocmai contextul — mii de oameni lăsați fără loc de muncă de o companie care investește masiv în AI — face sfatul și mai greu de digerat.

Este o lecție despre limitele tehnologiei și despre cât de periculos poate fi să înlocuiești dialogul uman cu unul artificial. ChatGPT poate oferi suport util, dar nu poate înlocui o conversație reală, empatică, umană. Nu îți poate simți frustrarea, nu îți poate înțelege experiențele personale și nu te poate consola cu sinceritate.

Într-un moment în care companiile de tehnologie își schimbă strategiile și pun tot mai mult accent pe automatizare, asemenea episoade devin simptomatice. E o dovadă că, în goana după inovație, se uită un detaliu esențial: oamenii nu sunt linii de cod.

Microsoft are dreptul să investească în viitorul digital, dar are și responsabilitatea de a-și trata angajații cu respect, chiar și (sau mai ales) în momentul despărțirii. Să sugerezi că AI-ul e suficient pentru a suplini sprijinul uman e mai mult decât o gafă — e o radiografie a felului în care companiile moderne privesc empatia: ca pe un task delegabil. Iar când empatia devine un prompt, pierdem cu toții ceva din umanitatea noastră.