Компания Google представила на конференции I/O 2022 смартфон Pixel 6a и наушники Pixel Buds Pro, а также показала дизайн нескольких новых гаджетов: умных часов, нового планшета и смартфона Pixel 7. Также Google продемонстрировала наработки в области очков дополненной реальности и рассказала о новых функциях поиска. Трансляция презентации проходила на YouTube.
В 2019 году Google купила компанию Fitbit, а в 2021 году вместе с Samsung объединила Wear OS с Tizen. Но несмотря на большие наработки в области умных часов, сама Google не занималась из выпуском. Теперь же компания показала свои первые умные часы — Pixel Watch. Но если раньше Google представляла на конференции I/O уже готовые устройства, то в этот раз лишь показала дизайн часов и еще нескольких гаджетов. Устройство получит круглый и загибающийся к краям экран, а также головку и кнопку сбоку. Известны и некоторые детали о программной части: часы получат интеграцию с сервисами Fitbit. Остальные подробности Google пообещала рассказать осенью.
Аналогичным образом, но с еще меньшим уровнем подробностей, компания рассказала о Pixel 7 и первом планшете в линейке Pixel. Фактически Google раскрыла лишь их дизайн. И если полноценный анонс смартфона случится осенью, то планшет будет выпущен лишь в 2023 году.
Помимо устройств, которые имеют конкретную дату выпуска, Google показала ранний прототип очков дополненной реальности. Они выполнены в виде обычных очков, как Intel Vaunt или North Focals. Примечательно, что после закрытия проекта Vaunt его наработки купила North, а затем компанию купил холдинг Alphabet, в который входит и Google. А за несколько дней до презентации стало известно, что Google приобрела разработчика MicroLED-дисплеев для AR-очков Raxium.
В коротком ролике можно увидеть, как очки в реальном времени переводят речь собеседника и отображают перевод на экране. Неизвестно, исследует ли компания другие применения, а также занимается ли она разработкой полноценных AR-очков, способных «привязывать» виртуальные объекты к реальному миру.
Одним из двух полноценных «железных» анонсов стал смартфон среднего класса Pixel 6a. Как и раньше, он получил очень похожий на старшую версию дизайн, но в этой модели Google впервые использовала и такой же мощный процессор — свою первую систему на чипе Google Tensor. В a-модели также есть поддержка 5G (в том числе mmWave). Главным отличием от старшей модели стал экран — он тоже имеет OLED-матрицу, но у него меньше размер (6,1 дюйма) и частота обновления (60 герц). Кроме того, в 6a используются другие камеры (12 мегапикселей в обеих) и другие материалы корпуса.
Pixel 6a будет доступен в одной версии с 6 гигабайт оперативной памяти и 128 постоянной. Он поступит в продажу 28 июля по цене 499 долларов и будет доступен лишь в США и Японии.
Наконец, обновления «железа» коснулись и наушников — Google представила наушники Pixel Buds Pro, главным отличием которых стало активное шумоподавление и режим «прозрачности», при котором человек слышит окружающий мир почти так же, как и без них. А в конце года наушники получат обновление, добавляющее в них поддержку «пространственного звука», при котором направление звука меняется вместе с движением головы. Наушники могут работать 11 часов в обычном режиме и 7 часов с активным шумоподавлением. Они будут доступны 28 июля по цене 199 долларов.
Компания рассказала об обновлении мультимодального поиска, который она запустила этой весной. Изначально он поддерживал лишь изображения и текстовые запросы. Например, пользователь мог сфотографировать заинтересовавшую его одежду и попросить найти такую же, но другого цвета. Теперь такие запросы можно будет сопровождать уточнением, что человеку нужны продукты или услуги в локальных заведениях. Так, можно будет загрузить фотографию блюда и получить ответ, в каких кафе неподалеку оно есть. Эта функция станет доступна в конце этого года и изначально лишь на английском языке.
Также компания показала будущую функцию, которая пока находится в разработке. Пользователь сможет навести камеру на полку в магазине или аптеке и в реальном времени искать по товарам, например, спросив, какая из плиток шоколада имеет высокое содержание какао, и при этом имеет высокий рейтинг у других пользователей.
Теперь к умному экрану Google Nest Hub Max можно будет обращаться без обязательной фразы «Hey, Google»: для этого достаточно посмотреть на устройство и произнести команду. В этот момент устройство увидит, что пользователь смотрит именно на него, а также распознает его личность с помощью видео лица и звука голоса, чтобы не раскрыть конфиденциальную информацию, если к нему обратился посторонний человек, а не хозяин. Также для некоторых функций, таких как включение света, можно будет даже не смотреть на устройство, а просто попросить его без активационной фразы.
Рассказывая о новых функциях Android, компания представила приложение Google Wallet — аналог Apple Wallet на iOS. Пользователи смогут безопасно хранить в нем карты, паспорт, водительское удостоверение, сертификат вакцинации и другие важные документы. Приложение станет доступно в ближайшие месяцы, а поддержка официальных документов будет зависеть от региона. Также в смартфонах и планшетах на Android появится синхронизация буфера обмена: можно будет скопировать текст или фотографию на одном устройстве и вставить на другом.
Предыдущая большая презентация Google проходила в октябре. Тогда компания представила смартфон Pixel 6 и рассказала о своих новых алгоритмах машинного обучения.
Григорий Копиев
Модель GameNGen симулирует игровой процесс в реальном времени с качеством, почти неотличимым от оригинала
Исследователи из Google Research, Google DeepMind и Тель-Авивского университета представили GameNGen — первый игровой движок, полностью управляемый нейросетью, который обеспечивает взаимодействие игрока с виртуальной средой в реальном времени с высоким качеством генерируемой графики. GameNGen может симулировать классическую игру DOOM со скоростью более 20 кадров в секунду, используя для этого вычислительные мощности одного TPU. Качество изображения сопоставимо с алгоритмом сжатия JPEG, а людям на первый взгляд очень сложно отличить реальную игру от симуляции. GameNGen обучается в два этапа: сначала агент с помощью обучения с подкреплением учится играть в игру, а затем диффузионная модель обучается генерировать следующий кадр на основе последовательности предыдущих кадров и действий игрока. Статья с описанием движка опубликована на странице проекта в GitHub.