(文章来源:飞象网)
谈到智能语音,早已不是什么新鲜的事情,国外有如:苹果Siri,微软小娜,Google Assistant,亚马逊的Alexa这样的智能语音大咖。国内有灵犀助手(科大讯飞),小度(百度),小爱同学(小米)这样的后来跟进者。
首次接触智能语音的用户,会觉得很神奇,觉得这东西怎么可以如此智能。而对于经常使用的老用户来说,智能语音助手的鸡肋日益显现,因为现阶段的智能语音基本都是采用数据库匹配的原则,对于云端数据库中没有的知识,智能语音也只能“呵呵”了。但,对于技术,我们应该永远怀着宽容和理解的态度去对待,因为任何一门技术都是一个不断积累和升级的过程。
对于大部分人来说,目前接触体验最多的智能语音硬件应该只有智能音箱和智能机器人。只有通过智能硬件与云端数据中心的默契配合,才有可能让智能语音交互形成完整通路。语音交互的大致流程可分为:声音采集—>降噪—>语音唤醒—>语音转文字—>语义理解—>回复文字和指令—>文字转声音—>播放声音。下面以天猫精灵智能音箱为例,将语音交互完整步骤做逐步分解。
1、用户说“天猫精灵,今天天气怎么样?”;2、“天猫精灵”被语音唤醒模块接收到,并判断为唤醒词,然后通过AI芯片和硬件拾取和记录“今天天气怎么样”这段语音,并发送给云端服务器;3、服务器把收集到的电脑信号,再次转化成文字“今天天气怎么样”,交给语义理解服务器;语义理解服务器把“今天天气怎么样”这段文字,拆解成“事件=查询天气,时间=今天”这段控制指令回传给设备。
4、设备根据时间和本机地理位置,找天气服务器查询天气,并获得天气的的文本数据“今天要下雨”;5、设备把“今天要下雨”这几个字发给文字转声音的服务器,服务器返回“今天要下雨”这段声音,由设备喇叭播放出来。
毋庸置疑的是,以上五个步骤都是由智能音箱的硬件和云端的数据中心配合完成的,硬件只要负责声音的拾取和传达,云端则用丰富的数据资源去匹配用户的需求,二者缺一不可。相对来说,声音前处理技术则是智能硬件最最重要的部分,主要体现降噪和拾音效果两方面,唤醒以及与机器对话的时候都需要拾音,而且拾音还有近距离和远距离之说,如果连最基本的声音都没有听清和听懂,谈何后面的数据传达和解析呢。
拾音技术的降噪(AEC)是通过麦克风阵列,判断人在哪个方向,增强那个方向的拾音效果,可有效保证远距离声音拾取的准确度。中国声音前处理专家炬芯科技作为领先的AI芯片原厂,推出的众多智能音箱和机器人方案已经搭载双麦降噪、7麦阵列的配置,且支持远距离拾音,确保智能语音的第一环不能掉链子。其中ATS3605D就是炬芯从2018年开始就在核心主推的双麦克风阵列智能语音芯片,已经在各大品牌智能音箱、早教机器人、绘本机器人、物联网中控等产品上完美落地,强大的声音前处理技术为完美智能语音体验保驾护航。
如想让让智能语音产品做到真正的聪明,智能硬件(包括主控芯片和各种IC)和语音助手(云端数据中心)都需要再升级,不断打通人和机器之间的对话壁垒,它才有可能做到真正的“通人情”。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)