相比VR领域的快速进展,可穿戴设备的技术迭代已经沉寂很久。这款芯片的出现带来的可能不止是可穿戴技术领域的革新,还包括汽车、物联网甚至是VR游戏的 *** 作的迭代。现在就来给大家解密这个叫Project Soli应用于体感交互的芯片。
Project Soli在2015年的Google I/O 公布,这是一款用于可穿戴设备的手势 *** 作感应利用微芯片雷达,用于完成非接触式虚拟工具手势交互。I/O 2016的第三天,Google公布了Soli的新进展。
Soli的背后又是ATAP
Project Soli是由谷歌的一个名为ATAP的部门来研发的。Google ATAP部门是和Google X相似的创新部门,前身由DARPA背景的Regina Dugan带领,主要作品包括模块化手机(Project Ara)、实时3D投影(Tango)、影院式VR(Spotlight Stories)。Dugan年初跳槽Facebook,似乎让Ara陷入困境。但ATAP还是在今年完成了Jacquard touch-sensiTIve fabric project和Soli的新进展。
Dugan走后的ATAP,似乎把部分重心从研究转移到商业化,Soli正与LG、高通、哈曼JBL等公司合作。
I/O 2016 的大会上,展出了一台改装过的LG Urbane智能手表,不仅可以感应手指的动作,而且可以感知手的远近。当手离得远的时候,只能显示时间的界面,而手慢慢靠近,功能也渐渐增多。
除了LG之外,Soli也被运用在哈曼JBL的音响上。不但可以判断手指的轻微的动作,左右滑动调节音量,也可以识别整只手的指令。
过去的一年Soli在干什么?
这项技术在去年的I/O大会上发布,能在一定距离远处识别用户的手势。
现在,新的Soli只有原大小的三分之一,电耗由1.2W降低到了 0.054W,可以兼容LG Watch Urbane智能手表。Soli拥有18,000 FPS的雷达侦测更新率,精确度达毫米级,并可以检测距离,调整用户界面选项的大小,基本不受光线和材料的影响。
Soli的工作原理和雷达是一样的。它用一个很宽的光束发散电磁波,被电磁波扫射到的物体吸收这种能量,并把一部分反射回信号接收器。反射回去的信号的强度和物体的材质、大小、移动速度等都有关系。
Soli根据手腕和手指细微的动作来跟踪和识别手势。为了使单个的芯片传感器能做到这一点,他们定制了新的雷达感应模式,以及新的硬件、软件和算法。实际上,Soli的空间分辨率比大部分手指精确的指示要粗糙,所以他们在靠的是反射回来的信号的细微的差别来识别手势的。
Soli的目标很明确:创建雷达式电子产品的工业及设计语言。所谓的设计语言,就是易于学习的指令,同时并能够实现灵活的控制,主要灵感来自于现有的物理控制手势,从而让用户感到自然。因为注重交互感,所以Soli的主要落点在于眼睛而非手,甚至不需要实体界面。
一开始,Soli的研究员Ivan Poupyrev就要求团队不要局限于实验,试着把雷达用在智能手表上。Poupyrev认为,如果一个东西,能用在智能手表上,那它就能用在其他任何地方。除了智能手表,它还能用在其他的可穿戴设备、手机、汽车和所有物联网的物体上。
Soli的主要研发工程师Jaime Lien表示,小型雷达芯片与雷达一个主要的改变在于机器学习算法,让手势这种空间信号转化为计算机能够理解的语言,其中很大的一个难点就在于信息的捕捉和噪音的排除。
主要机械工程师Nick Gillian透露,Soli体现的第一个设计语言就是“接近”,通过测距来获取指令界面。
Soli是智能手表的未来吗?
近些年智能硬件和智能穿戴的发展似乎陷入一个困境,大部分的产品只是外观功能上的更新,技术的迭代少之又少。就拿智能手表来说,功能无外乎那么几种,就连一向以创新著称的苹果手表都处于一个功能划一的尴尬境地。
在这个产业中的聚集的同类产品越多,价格竞争也就越激烈,利润也就被瓜分的厉害。变革往往从这里开始。据说,明年谷歌还会推出更小的Soli芯片,并推出全新的开发者套件,让工程师来开发更多好玩的玩法。
但是说到这款芯片在设备上的应用,就没有那么乐观了。据engadge说,只是虽然 Google 过去一年进展神速,听起来离一般消费性产品上出现还有一段距离。
确实,谷歌近些年的智能穿戴设备非常领先,曾经大家对于Google Glass的憧憬也非常强烈。但是由于多种原因,这款设备已经停止销售并且停止了整个研发过程。而对于Soli未来的应用,也还有很多问题要解决。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)