Tehnologie

Gemini Live devine gratuit: AI-ul de la Google care „vede” ce vezi și tu

Inteligența artificială intră într-o nouă eră, iar Google face un pas uriaș democratizând accesul la Gemini Live, o funcție care transformă camera și ecranul telefonului tău în surse active de informație pentru un AI capabil să „vadă” și să înțeleagă contextul în timp real.

Inițial rezervată exclusiv pentru abonații premium ai serviciului Gemini Advanced, funcția este disponibilă gratuit, de acum, pentru toți utilizatorii de Android. Și nu doar atât: rivalul Microsoft vine cu un răspuns rapid, oferind gratuit funcția Copilot Vision în browserul Edge.

Ce face, de fapt, Gemini Live

Imaginează-ți că îți plimbi telefonul printr-un muzeu sau un acvariu, iar un asistent virtual îți explică în timp real ce vezi: tipuri de pești, specii rare, contexte istorice. Acesta este doar un exemplu simplu din ce poate face Gemini Live.

Funcția îți permite să:

Partajezi camera telefonului cu AI-ul pentru a analiza obiecte, peisaje sau texte;
Îi arăți ecranul pentru a primi explicații sau asistență (de exemplu, un formular complicat sau o aplicație nouă);
Primești informații în timp real despre ce este pe ecran, fără să mai cauți manual pe Google.

Totul funcționează prin aplicația Gemini, iar Google a început deja activarea graduală a funcției pentru toți utilizatorii de Android. Unii o pot testa chiar de azi, dar lansarea completă va avea loc „în următoarele săptămâni”.

Exemplul oferit de Google într-un videoclip oficial este sugestiv: un utilizator ține telefonul spre un acvariu, iar Gemini descrie peștii, oferă detalii despre specii și răspunde la întrebări.

Google versus Microsoft: duelul AI-urilor care „văd”

În aceeași zi, Microsoft a anunțat că Copilot Vision, o funcție cu un concept similar, este disponibilă gratuit în browserul Edge.

Mustafa Suleyman, CEO-ul diviziei de inteligență artificială de la Microsoft, a declarat că instrumentul poate „vede literalmente ceea ce este pe ecran” și poate oferi suport personalizat în diverse contexte.

Printre funcționalitățile menționate se numără:

Ghidarea pas cu pas într-o rețetă atunci când gătești;
Interpretarea unei fișe de post pentru a crea un plan personalizat de pregătire pentru interviu;
Brainstorming pentru scrisori de intenție sau alte documente administrative.

Astfel, cei doi giganți tehnologici își joacă cărțile în lupta pentru supremația în AI-ul contextual. Google mizează pe integrarea profundă în Android, în timp ce Microsoft se folosește de platforma Edge și de compatibilitatea extinsă cu Windows.

Ce înseamnă asta pentru tine?

Deschiderea Gemini Live către toți utilizatorii este o veste excelentă dacă folosești Android. Nu mai ai nevoie de abonament premium pentru a beneficia de una dintre cele mai spectaculoase funcții AI din ecosistemul Google.

Cu Gemini Live:

Ai parte de un asistent vizual în buzunar – util pentru turism, educație, muncă sau rezolvarea sarcinilor zilnice.
Simplifici sarcinile complicate: în loc să explici ce vezi, arăți pur și simplu imaginea AI-ului și primești răspunsuri.
Folosești AI-ul ca pe un ghid vizual care învață alături de tine și îți oferă suport personalizat.

Este o mutare strategică din partea Google: oferind funcția gratuit, colectează mai multe date vizuale, ceea ce ajută AI-ul să învețe mai repede și să devină mai precis.

Gemini Live nu e doar un „gadget” cool – e un indiciu despre cum va arăta viitorul interacțiunii cu inteligența artificială.

Transformând camera telefonului într-un ochi pentru AI, Google redefinește asistența digitală. Dacă până acum AI-ul îți „asculta” comenzile, acum te vede, te înțelege și acționează în funcție de contextul vizual.

Cu Microsoft și Google într-o cursă directă, utilizatorii sunt cei care câștigă. Iar în acest ritm, nu e exclus ca într-un viitor apropiat să avem AI care nu doar vede, ci și interpretează emoții, stări, expresii faciale sau mișcări.

Dar până acolo, bucură-te de ce poți deja testa: Gemini Live te așteaptă – gratuit și gata să vadă lumea prin ochii tăi.