Tehnologie

ChatGPT merge mai departe: cum devine mai bun și poți câștiga niște bani din asta

OpenAI, firma din spatele senzației de chatbot ChatGPT, a declarat că va oferi până la 20.000 de dolari utilizatorilor care raportează vulnerabilități în sistemele sale de inteligență artificială.

Programul OpenAI Bug Bounty, care a fost lansat marți, va oferi recompense oamenilor în funcție de gravitatea erorilor pe care le raportează, cu recompense începând de la 200 USD per vulnerabilitate.

Companiile de tehnologie folosesc adesea programe de recompensare a erorilor pentru a încuraja programatorii și hackerii etici să raporteze erori în sistemele lor software.

Conform detaliilor despre platforma de recompense pentru bug-uri Bugcrowd, OpenAI a invitat cercetătorii să revizuiască anumite funcționalități ale ChatGPT și cadrul modului în care sistemele OpenAI comunică și partajează date cu aplicații terțe.

Programul nu include conținut incorect sau rău intenționat produs de sistemele OpenAI.

Mișcarea vine la câteva zile după ce ChatGPT a fost interzis în Italia pentru o presupusă încălcare a regulilor de confidențialitate, determinând autoritățile de reglementare din alte țări europene să studieze mai îndeaproape serviciile generative de inteligență artificială.

ChatGPT de la OpenAI susținut de Microsoft Corp, care a luat lumea cu asalt de la lansarea sa în noiembrie, i-a uimit pe unii utilizatori cu răspunsuri rapide la întrebări și a cauzat neliniște altora cu inexactități.

GPT-4, noua versiune

Pe lângă un model de limbaj mai avansat, care „demonstrează performanțe la nivel uman la diferite teste profesionale și academice”, noua versiune acceptă intrări de imagini și promite un comportament de refuz mai strict pentru a-l împiedica să-ți îndeplinească cererile neplăcute.

Raportul tehnic GPT-4 însoțitor avertizează, totuși, că noul model are încă o capacitate relativ mare pentru ceea ce cercetătorii numesc „halucinații”. Ceea ce sună absolut „sigur”.

Ceea ce se referă cercetătorii atunci când vorbesc despre halucinații este că noul model ChatGPT, la fel ca și versiunea anterioară, are tendința de a „produce conținut care este fără sens sau neadevărat în raport cu anumite surse”.

Deși cercetătorii precizează că „GPT-4 a fost antrenat pentru a reduce tendința modelului de a halucina, prin valorificarea datelor de la modele anterioare, cum ar fi ChatGPT”. Atunci nu numai că îl antrenează pe propriile sale bălării, dar l-au antrenat și prin evaluare umană.