期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
多层次时空特征自适应集成与特有-共享特征融合的双模态情感识别 被引量:4
1
作者 孙强 陈远 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第2期574-587,共14页
在结合脑电(EEG)信号与人脸图像的双模态情感识别领域中,通常存在两个挑战性问题:(1)如何从EEG信号中以端到端方式学习到更具显著性的情感语义特征;(2)如何充分利用双模态信息,捕捉双模态特征中情感语义的一致性与互补性。为此,提出了... 在结合脑电(EEG)信号与人脸图像的双模态情感识别领域中,通常存在两个挑战性问题:(1)如何从EEG信号中以端到端方式学习到更具显著性的情感语义特征;(2)如何充分利用双模态信息,捕捉双模态特征中情感语义的一致性与互补性。为此,提出了多层次时空特征自适应集成与特有-共享特征融合的双模态情感识别模型。一方面,为从EEG信号中获得更具显著性的情感语义特征,设计了多层次时空特征自适应集成模块。该模块首先通过双流结构捕捉EEG信号的时空特征,再通过特征相似度加权并集成各层次的特征,最后利用门控机制自适应地学习各层次相对重要的情感特征。另一方面,为挖掘EEG信号与人脸图像之间的情感语义一致性与互补性,设计了特有-共享特征融合模块,通过特有特征的学习和共享特征的学习来联合学习情感语义特征,并结合损失函数实现各模态特有语义信息和模态间共享语义信息的自动提取。在DEAP和MAHNOB-HCI两种数据集上,采用跨实验验证和5折交叉验证两种实验手段验证了提出模型的性能。实验结果表明,该模型取得了具有竞争力的结果,为基于EEG信号与人脸图像的双模态情感识别提供了一种有效的解决方案。 展开更多
关键词 双模态情感识别 脑电 人脸图像 多层次时空特征 特征融合
在线阅读 下载PDF
基于人脸表情和语音的双模态情感识别 被引量:12
2
作者 闫静杰 卢官明 +1 位作者 李海波 王珊珊 《南京邮电大学学报(自然科学版)》 北大核心 2018年第1期60-65,共6页
在未来的人工智能领域中,计算机的情感识别能力将扮演越来越重要的角色。针对人脸表情和语音的双模态情感识别,文中提出了一种基于稀疏典型相关分析的特征融合方法。首先,分别提取人脸表情和语音两个模态的情感特征,然后采用稀疏典型相... 在未来的人工智能领域中,计算机的情感识别能力将扮演越来越重要的角色。针对人脸表情和语音的双模态情感识别,文中提出了一种基于稀疏典型相关分析的特征融合方法。首先,分别提取人脸表情和语音两个模态的情感特征,然后采用稀疏典型相关分析方法对两个模态的情感特征进行融合,最后采用K近邻分类器进行情感识别。实验结果表明文中提出的基于稀疏典型相关分析的双模态情感识别方法能够比语音单模态和人脸表情单模态情感识别取得更高的识别率。 展开更多
关键词 人脸表情 语音 双模态情感识别 稀疏典型相关分析
在线阅读 下载PDF
时空LBP矩和Dempster-Shafer证据融合的双模态情感识别 被引量:2
3
作者 王晓华 侯登永 +2 位作者 胡敏 任福继 王家勇 《光电工程》 CAS CSCD 北大核心 2016年第12期154-161,共8页
针对视频情感识别中存在运算复杂度高的缺点,提出一种基于时空局部二值模式矩(Temporal-Spatial Local Binary Pattern Moment,TSLBPM)的双模态情感识别方法。首先对视频进行预处理获得表情和姿态序列;然后对表情和姿态序列分别提取TSL... 针对视频情感识别中存在运算复杂度高的缺点,提出一种基于时空局部二值模式矩(Temporal-Spatial Local Binary Pattern Moment,TSLBPM)的双模态情感识别方法。首先对视频进行预处理获得表情和姿态序列;然后对表情和姿态序列分别提取TSLBPM特征,计算测试序列与已标记的情感训练集特征间的最小欧氏距离,并将其作为独立证据来构造基本概率分配(Basic Probability Assignment,BPA);最后使用Dempster-Shafer证据理论联合规则得到情感识别结果。在双模态表情和姿态情感数据库上的实验结果表明,本文提出的时空局部二值模式矩可以快速提取视频图像的时空特征,能有效识别情感状态。与其他方法的对比实验也验证了本文融合方法的优越性。 展开更多
关键词 视频感情识别 双模态情感识别 时空局部二值模式矩 DEMPSTER-SHAFER证据理论
在线阅读 下载PDF
双模态跨语料库语音情感识别
4
作者 刘云翔 张可欣 《应用技术学报》 2024年第1期77-84,共8页
语音情感识别(SER)在双模态的跨数据库语音情感识别研究较少,跨数据库情感识别过度减少数据集之间差异的同时,会忽视情感判别能力的特征的问题。YouTube数据集为源数据,互动情感二元动作捕捉数据库(IEMOCAP)为目标数据。在源数据和目标... 语音情感识别(SER)在双模态的跨数据库语音情感识别研究较少,跨数据库情感识别过度减少数据集之间差异的同时,会忽视情感判别能力的特征的问题。YouTube数据集为源数据,互动情感二元动作捕捉数据库(IEMOCAP)为目标数据。在源数据和目标数据中,Opensmile工具箱用来提取语音特征,将提取的语音特征输入到CNN和双向长短期记忆网络(BLSTM),来提取更高层次的特征,文本模态为语音信号的翻译稿。首先双向编码器表示转换器(Bert)把文本信息向量化,BLSTM提取文本特征,然后设计模态不变损失来形成2种模态的公共表示空间。为了解决跨语料库的SER问题,通过联合优化线性判别分析(LDA)、最大平均差异(MMD)、图嵌入(GE)和标签回归(LSR),学习源数据和目标数据的公共子空间。为了保留情绪辨别特征,情感判别损失与MMD+GE+LDA+LSR相结合。SVM分类器作为迁移公共子空间的最终情感分类,IEMOCAP上的实验结果表明,此方法优于其他先进的跨语料库和双模态SER. 展开更多
关键词 跨语料库 情感识别 模态语音情感识别 迁移子空间学习 循环神经网络
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部