Google I/O 2015 привлече вниманието на всички с многобройните си анонси, но един проект остана малко встрани от медийния шум. Подразделението Google ATAP (Advanced Technology and Projects) ни представи Project Soli – един интересен метод за взаимодействие с устройства ни.

Project Soli ще направи така, че ръцете и пръстите ни ще са единственият потребителски интерфейс, от който ще се нуждаем. За да се случи това, се използва радар, който е достатъчно малък, за да се побере в удобен за носене умен часовник. Малкият радар улавя движения ни в реално време и ги използва, за да разбере какво правим. Когато преместваме ръката или пръстите си, радарът засича сигнала и амплитудата и преобразува това в команда, изпълняваща се на устройството. Така с едно щипване например ще може да отваряме приложения. От ATAP ще осигурят APIs за по-дълбоко машинно обучение на Project Soli. Вижте и видеото:

 

 

Прочетете още: Google Spotlight Stories вече и в YouTube

Тагове: