Jocuri

Gamerii „iubesc” deja AI-ul în jocuri, susține CEO-ul Razer, doar că nu l-au numit încă așa

Dacă te uiți la felul în care a fost primit „AI-ul în gaming” în ultimul an, ai impresia că industria și comunitatea vorbesc limbi diferite: companiile promit „viitorul”, iar jucătorii văd în față încă un val de automatizare, costuri mai mari și conținut ieftin. Interviul live realizat de Nilay Patel cu CEO-ul Razer, Min-Liang Tan, la CES 2026, pune conflictul pe masă fără să-l cosmetizeze: Razer apasă accelerația pe inteligență artificială, chiar și când comentariile gamerilor sunt ostile.

Tan încearcă să schimbe centrul de greutate al discuției: nu „AI care înlocuiește creativitatea”, ci „AI ca unealtă invizibilă” care face jocurile mai bune — mai ales în culise, acolo unde QA-ul, bug-urile și iterațiile mănâncă timp și bani. Problema e că, la CES, Razer a adus și exact genul de produs care inflamează internetul instant: un companion holografic în stil anime, pus într-un „borcan” pe birou.

De ce un „waifu în borcan” a devenit brusc o discuție despre responsabilitate

Vedeta controverselor se numește Project Ava: un avatar holografic de birou, care se prezintă ca „AI copilot” pentru gameri, cu o prezență fizică (un display holografic mic) și cu ambiția de a sta lângă tine „mereu”. În interviu, Nilay Patel apasă pe diferența dintre „concept” și „produs”: Razer ia deja „rezervări” de 20 de dolari pentru Ava, iar compania spune că se așteaptă să-l livreze (cu estimări de disponibilitate în a doua jumătate din 2026).

Mărul discordiei e motorul conversațional ales pentru demonstrație: Grok (xAI). Tan îl laudă pentru „conversație” și „personalitate”, dar refuză să dea un verdict clar despre cât de bun partener pe „trust & safety” este xAI — exact în contextul în care Grok a fost asociat cu scandaluri legate de conținut sexual deepfake. De aici vine tensiunea: tu nu mai vinzi un mouse; vinzi o prezență antropomorfă, care poate deveni ușor „obiect emoțional”, indiferent de intenția declarată a companiei.

În plus, când pui un avatar „umanizat” pe birou, închizi cercul dintre gaming și viață personală: Ava nu e prezentat doar ca „coach” pentru jocuri, ci și ca asistent pentru organizare zilnică. Asta ridică întrebări legitime despre limite, date și despre ce se întâmplă când produsul ajunge la oameni care nu caută un „tool”, ci un substitut de companie.

Pariul de 600 de milioane și războiul cu „slop-ul” generativ

În paralel cu Ava, Razer mizează pe o repoziționare masivă în jurul AI: Min-Liang Tan a vorbit despre o investiție de peste 600 de milioane de dolari în următorii ani și despre angajarea a circa 150 de specialiști/ingineri AI. Asta nu mai e „un demo de CES”, ci o schimbare de direcție cu buget de strategie.

De ce insistă Tan că gamerii vor ajunge să accepte AI-ul? Cheia e distincția lui între două lucruri: „slop” (conținut generativ aruncat pe piață cu minimum de efort) și unelte care ajută echipele să facă jocuri mai bune. În interviu, el spune direct că și el e „împotriva slop-ului”, dar că ar vrea AI care să reducă fricțiunile din dezvoltare: de la trierea bug-urilor până la completarea mai rapidă a tichetelor (exemplul lui: integrare tip Jira pentru QA).

Dacă vrei o paralelă pe care s-o simți imediat, gândește-te așa: un joc poate arăta „AI-ish” când vezi artă strâmbă sau text ieftin. Dar un joc poate fi „mai bun” datorită AI fără să-ți dai seama: mai puține crash-uri în day-one patch, mai puține quest-uri blocate, mai puțin „softlock” la boss, mai puține probleme de performanță scăpate pe console. Acolo încearcă Tan să mute conversația, chiar dacă, ironic, Razer a adus pe scenă și fix genul de jucărie care aprinde discuțiile despre „creepy AI”.

Când AI-ul devine purtabil: căști cu camere și promisiunea „fără reînvățare”

Al doilea concept care spune multe despre filosofia Razer e Project Motoko: o pereche de căști wireless cu camere integrate și microfoane, gândite ca „asistent AI” hands-free, alimentat de un cip Snapdragon și compatibil cu mai multe modele (Razer vorbește explicit despre abordare multi-model).

Argumentul lui Tan e mai mult despre design decât despre magie tehnică: căștile sunt un form factor familiar, deci nu te obligă să-ți schimbi comportamentul cum ar face-o o pereche de ochelari inteligenți. Practic, Razer vrea să pună „intrarea” (voice + vision) într-un obiect pe care îl accepți deja social, apoi să lase modelele să facă restul. În interviu, Tan susține că, în demo, Motoko folosește ChatGPT pentru capabilități de „asistent”, iar Ava folosește Grok pentru conversație — încă o dată, ideea de ecosistem care „împachetează” mai multe motoare AI în hardware-ul Razer.

Aici se vede și miza reală: dacă Razer reușește să facă AI-ul util în lucruri mici și repetate (context, căutări rapide, recunoaștere de obiecte pe ecran, suport în jocuri fără trișat), ostilitatea „anti-AI” s-ar putea toci în timp. Dar dacă primele experiențe publice sunt dominate de avataruri sexualizabile și scandaluri de deepfake, atunci chiar și cele mai sănătoase utilizări (QA, accesibilitate, local performance tuning) ajung să fie îngropate sub aceeași etichetă.

Întrebarea care rămâne: cine plătește, cine răspunde și unde tragi linia

În interviu, Patel insistă pe un lucru simplu: când vinzi „prezență” și „personalitate”, responsabilitatea crește abrupt. Iar Razer, deși vorbește despre „guardrails”, pare să fie în aceeași zonă gri ca restul industriei: promisiuni despre siguranță, parteneri de modele, „învățăm din feedback”, fără un răspuns final despre cum previi utilizările toxice sau atașamentele problematice.

Și mai e un strat pragmatic: banii. Tan spune că nu are încă o schemă clară dacă AI-ul va fi „în prețul hardware” sau abonament, dar admite costurile continue (cloud, uptime, servicii). Dacă te satură modelul industriei „încă 10 euro pe lună”, ține minte că exact aici se joacă partida: orice „asistent” care trăiește în cloud împinge inevitabil spre taxe recurente. Ca gamer, poți să fii cinic fără să fii luddit: întreabă-te ce primești concret pentru bani, cere transparență despre ce date se colectează și unde se procesează și nu confunda „demo-ul cool” cu „produsul pe care îl vei folosi doi ani”.

Dacă vrei să judeci corect pariul lui Tan, uită-te la două semne simple în 2026: apar unelte de dezvoltare care reduc timpul de QA fără să înlocuiască artiștii și scenariștii (și fără să umple jocurile de „slop” generativ) și companiile care vând „companioni” își asumă reguli clare, verificabile, nu doar sloganuri despre siguranță.

La final, afirmația „gamerii iubesc AI-ul, doar că nu știu încă” e mai puțin o profeție și mai mult o tactică de rebrand: să separi AI-ul util, invizibil, de AI-ul scandalos, vizibil. Tu decizi dacă înghiți separarea asta sau dacă ceri, pe bună dreptate, ca industria să-și pună ordine în propriile consecințe înainte să-ți vândă „viitorul” într-un borcan.