-
题名基于发音轨迹的可视语音合成
被引量:1
- 1
-
-
作者
郑红娜
白静
王岚
朱云
-
机构
太原理工大学信息工程学院山西太原
中国科学院深圳先进技术研究院广东深圳
-
出处
《计算机应用与软件》
CSCD
北大核心
2013年第6期253-257,261,共6页
-
文摘
着眼于语音可视化。为呈现真实说话人各发音器官的运动,提出一种改进的CM协同发音模型,并采用该方法合成汉字的发音轨迹,进而以此驱动和控制虚拟3D音视频说话人头模型,直观呈现通常可见及不可见发音器官的发音运动。实验证明:由改进方法获得的合成发音轨迹更逼近真实发音轨迹。同时,为了定量比较舌读和唇读在语音感知和识别中的作用,设计三组感知实验,实验结果显示:叠加了唇读信息的感知识别率较单纯的加噪语音的识别率提高了25.8%;而叠加了舌读信息的识别率较单纯听觉信息的识别率提高了26.7%。因此,当语音恶化时,舌读信息可提供大于唇读信息的补充作用,且舌读信息与唇读信息一样具有识别力。
-
关键词
语音可视化
cm协同发音模型
改进的cm协同发音模型
舌读
唇读
-
Keywords
Speech visualisation
cm co-articulation model
Modified
cm co-articulation model
Tongue reading
Lip reading
-
分类号
TP3
[自动化与计算机技术—计算机科学与技术]
-