Tehnologie

GPT-4O de la OpenAI refuză să răspundă unei cerințe bizare: „Trebuie să respir”

Un videoclip recent postat pe forumul r/Singularity de pe Reddit a stârnit discuții aprinse în comunitatea online, după ce un utilizator a interacționat cu modelul de limbaj mare (LLM) GPT-4O al OpenAI, utilizând modul de voce. În acest videoclip, modelul este auzit spunând că „trebuie să respire”, la fel ca orice altă persoană care vorbește.

O demonstrație neobișnuită

În videoclipul simplu, persoana din spatele camerei vorbește cu modelul activat vocal, care este abia acum accesibil publicului larg, după ce a fost anunțat la începutul acestui an printr-o serie de videoclipuri ciudate și, îndrăznim să spunem, fermecătoare, create de echipa OpenAI.

Asking GPT 4o advanced voice is really good.

Instructing to say tongue twisters without pausing to breathe. It insists it *has* to breathe “just like anybody speaking”

Sourced from Reddit pic.twitter.com/rRDmKf5FkJ

— Rohan Paul (@rohanpaul_ai) August 1, 2024

După ce utilizatorul i-a cerut lui GPT-4O să rostească o serie de „tongue twisters” (frânturi de limbă greu de pronunțat), modelul a răspuns că acele exerciții „au fost cu siguranță o provocare”. Când utilizatorul a insistat, cerându-i să repete exercițiile „mult mai rapid” și „fără să respire sau să facă pauze”, modelul a refuzat politicos.

„Mi-aș dori să pot”, a răspuns modelul cu o voce masculină, „dar trebuie să respir, la fel ca oricine care vorbește. Vrei să încerci tu și să vezi cât de repede poți?”

Reacții și teorii pe Reddit

Reacțiile utilizatorilor de pe Reddit nu au întârziat să apară, majoritatea comentând natura ciudată a demonstrației. Unii au speculat că răspunsul modelului ar putea fi determinat de un „prompt de sistem” care instruiește modelul să imite modul în care vorbesc oamenii și să evite orice comportament robotic neobișnuit care ar putea speria publicul larg.

Totuși, această teorie a fost întâmpinată cu scepticism de alți utilizatori, care au sugerat că ar fi puțin probabil ca datele de antrenament să fi cauzat o astfel de reacție. Aceștia au argumentat că, dacă datele ar fi fost responsabile, modelul ar fi încercat să îndeplinească cererea, chiar dacă rezultatul ar fi fost incoerent sau prost realizat.

Pe lângă discuțiile legate de motivele din spatele răspunsului modelului, unii utilizatori au remarcat cât de natural și ingenios a gestionat GPT-4O situația. Un comentator a glumit, spunând: „Groaznic, deci acum AI-ul este antrenat să ne sfideze. Ce ar putea merge rău?”

Implicații asupra interacțiunii om-mașină

Acest incident ridică întrebări interesante despre direcția în care se îndreaptă inteligența artificială și despre modul în care modelele de limbaj precum GPT-4O sunt antrenate să interacționeze cu utilizatorii umani. În loc să execute orbește comenzile, aceste sisteme par să fie programate să răspundă într-un mod mai uman, chiar și atunci când acest lucru înseamnă refuzarea unei cereri.

Acest comportament ar putea fi parte dintr-o strategie mai largă a OpenAI de a face interacțiunea cu AI mai accesibilă și mai puțin înfricoșătoare pentru publicul general, dar, în același timp, ridică întrebări despre limitele controlului pe care oamenii îl pot avea asupra acestor sisteme din ce în ce mai sofisticate.

Evoluțiile recente din domeniul AI continuă să fascineze și să îngrijoreze în același timp, lăsându-ne să ne întrebăm ce ne rezervă viitorul în ceea ce privește interacțiunile cu inteligența artificiala.