На виставці MWC 2017 компанія Elliptic Labs в черговий раз демонструвала технологію управління смартфоном за допомогою жестів. В основі системи лежить ультразвук, який випромінює динамік смартфона. Технічно це схоже з сонаром.

Мікрофон вловлює відбитий сигнал, а система розраховує час повернення, що дозволяє з високою точністю визначати руху предметів навколо.

Поки що така технологія не застосовується в комерційних девайса, хоча на виставці показали кілька прикладів її застосування. Одні з них, коли телефон лежить на столі і починає дзвонити, то досить простягнути до нього руку, щоб відповісти, і мелодія припинить грати. А якщо ви дивитеся відео на смартфоні, то кнопки управління з’являються на екрані відразу ж, як протягнете руку, щоб зупинити відтворення. Ще один приклад використання управління жестами порадує любителів селфи. Коли смартфон знаходиться на моноподе, і ви зробили селфи, досить наблизити руку до екрану, щоб збільшити фото і подивитися, чи добре воно вийшло.

Як заявила генеральний директор Elliptic Labs Лайла Деніелс, технологія з’явиться в широкому доступі лише тоді, коли всі жести будуть інтуїтивно зрозумілими, і користувачеві не потрібно замислюватися про те, як виконати ту чи іншу дію. Перші ж смартфони з підтримкою такої технології обіцяні вже в цьому році, однак Elliptic Labs обіцяє подібне з 2015-го.