Google розпочала розгортання нових можливостей штучного інтелекту для Gemini Live, які дозволяють йому «бачити» екран смартфона або отримувати зображення через камеру та надавати відповіді в реальному часі. Про це повідомляє The Verge.
Ці функції з'явилися майже через рік після того, як Google вперше продемонстрував роботу ШІ-помічника Project Astra, на якій вони базуються.
Один із користувачів Reddit повідомив, що нова функція з’явилася на його смартфоні Xiaomi. Пізніше він опублікував відео, яке демонструє здатність Gemini зчитувати інформацію з екрана пристрою.
Ця можливість є однією з двох функцій, які Google анонсувала та обіцяла почати розгортати пізніше цього місяця для підписників Gemini Advanced у межах плану Google One AI Premium.
Ще одна новація, яку почали впроваджувати, — аналіз відео в реальному часі. Вона дозволяє Gemini інтерпретувати відеопотік із камери смартфона та відповідати на запитання про об’єкти в кадрі.
У демонстраційному відео, опублікованому Google цього місяця, користувач запитує поради щодо вибору кольору фарби для керамічного виробу.
Нагадаємо, до кінця 2025 року Google Assistant стане недоступним на більшості смартфонів і зникне з магазинів застосунків. Протягом найближчих місяців переведе більшість користувачів на Gemini.