亚马逊语音专家揭秘Alexa耳语模式的AI基础
上周,亚马逊在美国西雅图举行的发布会上一口气推出了十余款Alexa设备,大部分设备主要由Alexa语音平台驱动。其中部分设备将增添“耳语模式”功能,使Alexa设备用耳语来回应用户的低声说话。日前,亚马逊Alexa语音系统小组的一位专家Zeynab Raeesy在其博文中揭秘了这一功能的AI基础。
Raeesy在博文中介绍:“如果你在一个有小孩睡觉的房间,当有人走进来时,你会马上低声说话,提醒进来的人你希望房间内能保持安静,而进来的人意识到这一点之后,很可能也会压低声音讲话。”
Raeesy指出,Alexa的耳语模式令人难以理解的地方在于它是清音的,也就是说,它不涉及声带振动,往往比普通的语音在低频段具有更少的能量。她与小组的同事研究了两种能区分正常语音和耳语音的神经网络。
两种神经网络主要在结构上有所区别,一个是MLP(多层感知器),另一个是能进行时间递归的LSTM(长短期记忆)网络,这两者用来做训练的数据是一样的,这些数据包括(1)对数滤波器组能量,或者是用来记录不同频率范围信号能量的语音信号表示;(2)能区别耳语音与正常语音之间信号差异的一组特征。
在测试中,他们发现LSTM的表现结果比MLP更好,具备许多优势。Raeesy解释道,Alexa语音识别引擎的其他组件完全依赖对数滤波器组能量,并给不同的组件提供相同的输入数据,进而使整个系统更加紧凑。
Alexa耳语模式的开发并非一帆风顺,至少在最初阶段是这样的。由于Alexa是通过短时间的沉默(一种被称为“结束指向”的技术)来识别指令的结束或者进行回复,LSTM往往在话语即将结束时降低置信度。为解决这个问题,研究人员将LSTM的输出校准成整个话语的平均值,最终,降低最后1.25秒的语音数据成为维持“耳语模式”性能的关键。
美式英语的耳语模式功能将在今年11月份推出,对耳语模式具体工作原理的介绍将以论文的形式在12月份的IEEE语音技术研讨会上发表。
最新活动更多
-
即日-11.13立即报名>>> 【在线会议】多物理场仿真助跑新能源汽车
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 【限时免费下载】TE暖通空调系统高效可靠的组件解决方案
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论