Во вторник Google представил (14) проект Astra. Новая функция, представленная на Google I/O 2024 как «будущее ИИ-помощников», представляет собой универсального мультимодального помощника, который может видеть окружающий мир, знать, что такое вещи и где вы их оставили, а также отвечать на вопросы.
Также он говорит более естественно и, как утверждают в компании, не страдает задержками. Посмотрите, что уже было раскрыто на данный момент.
Читать далее:
Что мы знаем о новом ИИ-помощнике
- В ходе демонстрации Демис Хассабис, глава Google DeepMind и руководитель подразделения искусственного интеллекта Google, просит помощника обнаружить устройство, способное излучать звук.
- Проект Астра в ответ сообщает, что нашел говорящего.
- Ассистент смог определить компоненты динамика и подробно объяснить их.
- Затем на экране появился монитор с программным кодом. На вопрос о том, что делает код, представители Project Astra смогли объяснить все практически в реальном времени и простым языком.
- Наконец стало ясно, что ассистент может запоминать даже предметы, которые видел раньше.
- На вопрос, помнит ли он, где видел очки Демиса, ассистент оперативно ответил: «возле красного яблока«.
Посмотрите демонстрационное видео, выпущенное Google:
По словам Хассабиса, Astra очень близка к тому, как должен работать настоящий ИИ-помощник в реальном времени. Он может обрабатывать информацию гораздо быстрее и делает это за счет нового кодирования изображений и речи. Затем все кэшируется, создавая своего рода память для ответов на вопросы из прошлого (например, о местоположении очков).
Когда Google запустит Project Astra?
Google сообщает, что некоторые функции будут добавлены в Gemini и другие продукты позднее в этом году. Официальная дата пока не названа. Astra все еще находится на начальной стадии тестирования.