「」索尼「无声语音识别」大法:脖颈贴合传感器,AI 转换皮肤震动信息

如今 , 对于听力有障碍的群体来说 , 听不到的声音 , 可以触摸到了 。
“触摸”听不到的语言 , 是由东京大学和索尼计算机科学研究所(CSL)共同研发的 AI 系统「Derma」实现的 。有了 Derma 系统 , 只要在喉咙周围的皮肤上贴上传感器 , 利用喉咙和下颚的皮肤震动 , 就能将口形转化为语音 。
「」索尼「无声语音识别」大法:脖颈贴合传感器,AI 转换皮肤震动信息
文章图片

文章图片

可“触摸”的语言
根据病症的严重程度 , 现阶段治疗听力障碍的主流手段包括:药物治疗:通过静脉点滴或局部滴药(如激素、抗菌素、抗病毒药物等)消退炎症 , 使听力尽快恢复;手术治疗:主要针对外、中耳畸形、各种压迫咽鼓管疾病、耳外伤等进行手术;仪器辅助:如助听器(听力损失程度≤80dB)、人工耳蜗(听力损失程度>80dB) 。
其中 , 人工耳蜗植入是当前让重度、极重度耳聋患者恢复听力的唯一有效办法 。
雷锋网了解到 , 早在 1957 年 , 法国科学家首次将电极植入一位全聋病人的耳蜗内 , 使该患者感知到周围的环境音 。直到上世纪 90 年代 , 人工耳蜗进入临床应用阶段 , 给极重度耳聋患者带来了“新生” 。
实际上 , 人工耳蜗的发展离不开电子技术、计算机技术、语音学、电生理学、材料学、耳显微外科学的发展 。在这些学科兴起、发展之前 , 针对听力障碍患者 , 科学家给出的应对措施是一种叫做 Tadoma 的触诊唇读法 。顾名思义 , 这种疗法是指——听力障碍患者通过用手指触摸说话者的嘴唇、下巴、脖颈处 , 读取说话者想表达的内容 。
而上述日本团队研发 AI 系统 Derma 的灵感 , 最初正是源于 Tadoma 。
通过机器学习将 Tadoma自动化
该团队的设计其实就是将 Tadoma 疗法的过程通过机器学习自动化了 。
就其原理而言 , 如下图所示 , 在喉咙周边的皮肤上贴上一个加速度/角速度传感器 , 获取无声发声时下颚、舌肌运动引起的从下颚到喉咙的皮肤颤动信息 , 采用深度学习进行分析识别 , 最终实现将无声语音转换为语音输入的无声语音交互(Silent Speech Interaction , SSI) 。
「」索尼「无声语音识别」大法:脖颈贴合传感器,AI 转换皮肤震动信息
文章图片

文章图片

【「」索尼「无声语音识别」大法:脖颈贴合传感器,AI 转换皮肤震动信息】雷锋网注意到 , 该传感器可获取 12 维的皮肤运动信息 , 深度学习可以分析、识别 35 种发声类型 。实验表明 , 识别皮肤颤动信息的精准度超过 94% 。
值得一提的是 , 研究团队训练模型用到了连接时间分类(Connectionist Temporal Classification, CTC) 。
实际上 , 在训练语音识别器的过程中 , 受说话者语速等因素影响 , 将输入与输出对齐是一个难点 。为解决这一问题 , 连接时间分类就派上用场了 。
就其外形而言 , 与现有的一些无声语音交互设备相比 , 这一设备体积小、重量轻、并不显眼 。此外 , 这一系统耗电量低 , 不易受到环境亮度等因素的影响 , 不会影响到佩戴者的正常生活 , 可以说是非常实用了 。
另外研究团队表示 , 经转换后的语音合成不仅可以输入到具有语音识别功能的数字设备(语音助手) , 同时也能帮助有语言障碍的患者进行交流 。
将来 , 该团队的研究方向则是可穿戴电子设备和体内嵌入式计算集成 。
基于 AI 的无声语音交互
近年来 , 无声语音交互领域方兴未艾 , 当前产业和学界在该领域的思路主要有 2 条——通过感知气流识别话语(气流采集)和通过感知肌肉运动的方式识别话语(EMG 信号采集) 。以下是该领域发展的大致时间线:2009 年 , 麻省理工学院感知交流组研发的触觉设备能够克服读唇语无法清晰识别的障碍 , 成本比人工耳蜗植入手术低几个数量级;2016 年 , 牛津大学人工智能实验室、谷歌 DeepMind 和加拿大高等研究院(CIFAR)联合开发了结合深度学习技术的唇读程序 LipNet;2016 年 , DeepMind 经 1 万小时的新闻视频训练 , 将 AI 唇读准确率提升至 46.8%;2019 年 , 世界知识产权组织公布了微软申请的“无声语音输入”(Silent Voice Input)专利 , 丰富了“机器听懂人话”的场景;2020 年 3 月 , 浙江工业大学、中科院计算技术研究所智能信息处理重点实验室及中国科学院大学共同提出了在局部特征层和全局序列层上引入互信息约束 , 增强口型特征与语音内容的关系 , 将计算机唇读精度提升至 84.41% 。


推荐阅读