Google продемонстрировала на I/O 2016 улучшенную версию технологии управления жестами, созданную в рамках Project Soil, в десятки и сотни раз превосходящую первый вариант. Его впервые показали ровно год назад, выдав заинтересованным разработчикам‑партнерам прототипы, прожорливые до питания и вычислительных мощностей.
Технология Project Soil использует принцип радара, то есть отправку и прием отраженного сигнала, для определения положения и движения рук в пространстве. Она позволяет создавать системы, управляемые без прикосновения, простым проведением пальцев перед определенной зоной.
За прошедший год инженерам Google удалось в 22 раза снизить потребление технологией энергии, с 1,2 до 0,054 Вт, и в 256 раз уменьшить требования к «железу». При этом Project Soil не потерял в частоте сканирования, которая составляет 18 000 fps.
Сам минимально необходимый чип уменьшили, что позволило уместить его в чуть модифицированных часах LG Watch Urban. Место под модуль нашлось на ремешке крепления. Благодаря описанным выше изменениям в сбережении энергии и необходимой производительности Project Soil без проблем работает на часах, оснащенных Qualcomm Snapdragon 400.
Система позволяет приближая и отдаляя палец от дисплея тестовых Watch Urban переходить по уровням интерфейса, а щелчком прокручивать меню. Кроме часов на I/O 2016 показали и применение Project Soil на акустике JBL. Ее научили пропускать треки по демонстрации колонкам жеста «класс».
Возможности бесконтактного управления широки, нужно лишь для каждого умного предмета разработать свою удобную интуитивно понятную систему знаков. В Google видят применение Project Soil в автомобилях и умном доме. Можно предположить, что представленное на I/O 2016 устройство Home получит соответствующий чип‑радар.
Нет комментарий