От Project Astra до Gemini Live – Google тества пълно гласово управление на Android

2025 беше година на генеративния ИИ в смартфоните – но едно обещание на Google все още не се е случило напълно: Android, който се управлява от Gemini самостоятелно, без докосване до екрана. Демото през май на Google I/O 2025 даде първия поглед върху тази визия – но липсва цялостната картина.

Project Astra – първият „агент“, който използва телефона вместо вас

В почти 2-минутно демонстрационно видео през май Google показа как Project Astra може:

  • да търси онлайн и в Chrome
  • да скролва PDF и уеб страници на Android
  • да отваря YouTube, да търси и избира видео
  • да прави обаждания и поръчки от името на потребителя
  • да претърсва имейли и съдържание във вашите приложения

Google заяви, че цел е тези способности да бъдат интегрирани в Gemini Live, където AI ще може да работи в реално време като „цифров асистент с ръце и очи“.

Computer Use – ИИ, който работи като човек

През октомври Google пусна в преглед модела Computer Use, който позволява на Gemini да клика, пише, скролва и взаимодейства с интерфейси като човек. Първоначално оптимизиран за браузъри, но Google вижда „силен потенциал за мобилен UI контрол“ – т.е. директно управление на Android приложения, без разработчиците да ги адаптират.

Това е и фундаменталната разлика спрямо Apple:

  • Apple Siri (2024 → 2025): може да изпълнява действия в приложения, но само ако разработчиците добавят поддръжка и интеграции
  • Google Gemini (Astra): цели да действа без предварителна интеграция, директно върху интерфейса – прагматичен подход, ако Android екосистемата не се адаптира навреме

Не е първият опит

Още през 2019 новото Google Assistant обещаваше „ползването на телефона с докосване да изглежда бавно“, с on-device процесинг и почти нулева латентност – но не успя да излезе извън Pixel и остана ограничено от строги команди.

Разликата сега?
LLM моделите като Gemini разбират човешки език естествено:
„Пусни онова видео от YouTube, дето ми прати Петър вчера“ – вместо рутинни, роботизирани команди.

Колко близо сме до реалност?

Прогнозите за 2026–2027 са предпазливи:

  • масово използване ще започне чрез hands-free сценарии (шофиране, готвене, спорт)
  • в мобилни устройства ще се появят хибридни модели – докосване + глас + ИИ автоматизация
  • пълното „AI управлява телефона вместо мен“ може да се превърне в норма, но ще изисква:
    • перфектна точност
    • доверие в сигурността
    • нови UX стандарти

Най-радикалният ефект: очила, часовници, слушалки

Ако телефонът може да бъде управляван без екран, това отключва сценарии като:

  • AI асистент през слушалки → информация без изваждане на телефона от джоба
  • AR очила, които „разчитат“ на телефона като дистанционно управляван процесор
  • смарт часовници, които стават пълноценни терминали

Финален въпрос

Дали един ден глас + ИИ ще изместят допира като основен начин на работа с телефона?

Google още не дава отговор – но Project Astra подсказва, че е само въпрос на време.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *