据AppleInsider报道,苹果已经在考虑如何向视障人士提供帮助,它将利用多种传感器制作本地环境模型,然后利用触觉反馈告诉用户他们周围存在哪些物体。
美国专利和商标局公布了苹果2015年7月提交的一件专利申请——“面向视障人士的引导设备”。这件专利申请描述了一款系统,其核心是一台采用“输入/输出触摸表面”的设备。硬件还包含能获取与周围环境有关的数据传感器,能够把数据“制作”成一个模型——用来提醒用户附近的威胁。
该系统能探测交通信号灯、汽车以及需要探测的其他元素,它也能被视障人士用来穿过配有家具的房间,或识别物体。
专利申请材料显示,该设备将利用多种传感器创建周围环境模型,其中包括定位和导航系统,一个麦克风、多个成像传感器和与手机,或用户佩戴的其他设备相连的一个通信单元。
在专利申请材料的部分图片中,该设备看起来像个手电筒,传感器在一端,收集用户前方环境的数据,“输入/输出触摸表面”将显示在用户周围。
“输入/输出触摸表面”能通过用户的手,提供触觉反馈。表面能提醒用户周围物体的名称和形状,如果用户前方有多个物体,它还会告诉用户这些物体的顺序。
苹果这一系统还能与智能手机和智能手表配合使用,为生成模型提供更多数据支持。相同的设备还能用来提供反馈,包括用户跌倒、设备脱手后的声音反馈,以及触觉反馈。
专利申请材料还显示,该系统可以安装在夹克或外套后面,通过它们向用户提供反馈,使用户能腾出双手,用于完成其他任务。
苹果每周都会申请大量专利,其中许多专利都不会转化成商品,因此,它是否会在未来推出以该专利为基础的产品尚有待观察。
探索如何帮助视障人士解决导航问题的并非只有苹果一家公司。今年3月,微软发布了一款免费iPhone应用Soundscape,利用3D声音定位技术帮助视障人士,向他们提醒周围物体的相对位置。
苹果一直在积极利用技术帮助各种残障人士,其产品和 *** 作系统包含有大量辅助功能,方便残障人士使用。
最近,苹果支持的USB开发者论坛(USBImplementers Forum)公布了新的盲文显示屏标准,这有助于简化硬件开发,从而降低用户使用技术的成本。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)