От Project Astra до Gemini Live – Google тества пълно гласово управление на Android
2025 беше година на генеративния ИИ в смартфоните – но едно обещание на Google все още не се е случило напълно: Android, който се управлява от Gemini самостоятелно, без докосване до екрана. Демото през май на Google I/O 2025 даде първия поглед върху тази визия – но липсва цялостната картина.
Project Astra – първият „агент“, който използва телефона вместо вас
В почти 2-минутно демонстрационно видео през май Google показа как Project Astra може:
- да търси онлайн и в Chrome
- да скролва PDF и уеб страници на Android
- да отваря YouTube, да търси и избира видео
- да прави обаждания и поръчки от името на потребителя
- да претърсва имейли и съдържание във вашите приложения
Google заяви, че цел е тези способности да бъдат интегрирани в Gemini Live, където AI ще може да работи в реално време като „цифров асистент с ръце и очи“.
Computer Use – ИИ, който работи като човек
През октомври Google пусна в преглед модела Computer Use, който позволява на Gemini да клика, пише, скролва и взаимодейства с интерфейси като човек. Първоначално оптимизиран за браузъри, но Google вижда „силен потенциал за мобилен UI контрол“ – т.е. директно управление на Android приложения, без разработчиците да ги адаптират.
Това е и фундаменталната разлика спрямо Apple:
- Apple Siri (2024 → 2025): може да изпълнява действия в приложения, но само ако разработчиците добавят поддръжка и интеграции
- Google Gemini (Astra): цели да действа без предварителна интеграция, директно върху интерфейса – прагматичен подход, ако Android екосистемата не се адаптира навреме
Не е първият опит
Още през 2019 новото Google Assistant обещаваше „ползването на телефона с докосване да изглежда бавно“, с on-device процесинг и почти нулева латентност – но не успя да излезе извън Pixel и остана ограничено от строги команди.
Разликата сега?
LLM моделите като Gemini разбират човешки език естествено:
„Пусни онова видео от YouTube, дето ми прати Петър вчера“ – вместо рутинни, роботизирани команди.
Колко близо сме до реалност?
Прогнозите за 2026–2027 са предпазливи:
- масово използване ще започне чрез hands-free сценарии (шофиране, готвене, спорт)
- в мобилни устройства ще се появят хибридни модели – докосване + глас + ИИ автоматизация
- пълното „AI управлява телефона вместо мен“ може да се превърне в норма, но ще изисква:
- перфектна точност
- доверие в сигурността
- нови UX стандарти
Най-радикалният ефект: очила, часовници, слушалки
Ако телефонът може да бъде управляван без екран, това отключва сценарии като:
- AI асистент през слушалки → информация без изваждане на телефона от джоба
- AR очила, които „разчитат“ на телефона като дистанционно управляван процесор
- смарт часовници, които стават пълноценни терминали
Финален въпрос
Дали един ден глас + ИИ ще изместят допира като основен начин на работа с телефона?
Google още не дава отговор – но Project Astra подсказва, че е само въпрос на време.

