Google представила новый интерфейс Android и объединила Wear OS с Tizen

Компания Google представила на конференции I/O новую версию Android с обновленным интерфейсом и объявила об создании новой операционной системы для умных часов на базе Wear OS, Tizen и наработок Fitbit. Кроме того, компания показала перспективные разработки, в том числе систему объемной видеосвязи с экраном светового поля и универсальный разговорный алгоритм. Трансляция презентации проходила на YouTube-канале Google.

Бета-версия Android 12

Главным отличием новой версии Android стал переработанный интерфейс операционной системы с адаптивными цветами. Система будет анализировать цвета на обоях экрана и создавать палитру основных цветов, которые будут использоваться в различных частях интерфейса: фонах, кнопках и других элементах. Также поменялся сам стиль многих элементов.

Разработчики отмечают, что изменения коснулись и плавности анимаций, которую удалось значительно повысить благодаря оптимизации операционной системы и графического стека. Наконец, в систему добавили множество небольших деталей. К примеру, экран будет включаться не мгновенно, а начиная с того места, в котором пользователь начал взаимодействовать с устройством. Например, если он нажал на кнопку включения, то интерфейс начнет «появляться» из соответствующей части экрана.

Изначально новый интерфейс появится в смартфонах Google Pixel, а в будущем будет использоваться в других смартфонах и других продуктах Google, а не только Android.

Довольно много изменений в Android 12 касаются безопасности и конфиденциальности. Например, в системе появились индикаторы работы микрофона и камеры, возможность давать приложениям не точное, а примерное местоположение, а также отдельный раздел для хранения данных локальных алгоритмов машинного обучения, изолированный от остальной операционной системы.

Бета-версия Android 12 доступна начиная с 18 мая для устройств от 11 производителей. Проверить совместимость своего устройства и присоединиться к программе тестирования можно здесь. Финальная версия системы будет выпущена осенью. Стоит отметить, что в первой бета-версии нет части анонсированных функций, в том числе некоторых элементов интерфейса.

Объединенная операционная система для умных часов

В последние несколько лет Google почти не развивала операционную систему Wear OS, предназначенную для умных часов, и фактически проигрывала конкуренцию Tizen, которую использовала на своих умных часах Samsung. На конференции I/O Google и Samsung объявили об объединении своих усилий и совмещении в одной операционной системе наработок Wear OS, Tizen и Fitbit, которую Google приобрела в 2019 году (до этого Fitbit получила наработки по умным часам Pebble).

Google утверждает, что это позволит значительно повысить производительность системы и время работы от аккумулятора, сохранив совместимость с приложениями для Android. Также в систему добавят новые функции, к примеру, возможность навигации при помощи кнопок, локальное хранение музыки в стриминговом сервисе YouTube Music и фитнес-функции из Fitbit.

Новые алгоритмы

На презентации Google показала перспективные алгоритмы для взаимодействия с пользователем. Один из них — это нейросетевая разговорная модель LaMDA (Language Model for Dialogue Applications). Она была разработана и обучена для открытых разговоров на произвольные темы, а не ответов на конкретные вопросы и разговоров по стандартным сценариям. Алгоритм умеет адаптироваться к изменению темы во время разговора, как это могут делать люди, но обычно не могут компьютеры. Компания показала два примера, в одном из которых алгоритм играл роль Плутона и отвечал на вопросы о себе, а в другом был бумажным самолетиком:

Компания не раскрывает технические особенности работы алгоритма, но отмечает, что он основан на предыдущем разговорном агенте, статья о котором доступна на arXiv.org. Пока LaMDA не используется в продуктах компании, но в будущем Google планирует внедрить его в Google Assistant и поиск.

Другой перспективный алгоритм, который Google показала на I/O — это мультимодальный алгоритм MUM (Multitask Unified Model). Он обучен на огромном массиве данных на 75 языках и, что важнее, способен работать с данными разных типов: сейчас это тексты и изображения, а в будущем разработчики планируют научить его работать с видео и аудио. Мультимодальность позволяет ему формировать более полные ответы на вопросы пользователей. Например, если пользователь покажет фото туристических ботинок и спросит, может ли он подняться в них на гору Фудзи, алгоритм поймет запрос, ответит и дополнительно предложит список оборудования, которое может пригодиться для похода в горы.

Также компания рассказала о нескольких других алгоритмах. Например, она доработала алгоритмы камеры смартфонов Pixel, обучив их на большом датасете фотографий людей с темным цветом кожи. В частности, это позволит более реалистично передавать цвет и яркость кожи, а также качественнее отделять волосы на фото от фона, что, например, используется для создания размытого фона в портретном режиме.

До конца 2021 года компания добавит в поиск пилотный проект функции скрининга 288 заболеваний кожи. Для этого пользователю нужно будет навести камеру смартфона на тело, после чего алгоритмы проанализируют кадры, покажут похожие состояния с описанием и посоветуют обратиться к специалисту.

Система объемной видеосвязи

В конце презентации компания показала прототип системы для объемных видеозвонков. Она представляет собой два стенда (для двух удаленных собеседников), в каждом из которых есть экран светового поля, позволяющий видеть объемное изображение без очков или каких-либо допольнительных устройств, а также датчики, с помощью которых система в реальном времени формирует 3D-модель человека:

Это не первая разработка Google в области светопольных экранов и камер. В прошлом году исследователи из компании создали алгоритмы и камеру для съемки и синтеза светопольных видеороликах, а также научились сжимать их для передачи через интернет.

Григорий Копиев

Нашли опечатку? Выделите фрагмент и нажмите Ctrl+Enter.
Вкалывают роботы

Как искусственный интеллект повлияет на то, как мы трудимся