长尾现象在序列推荐系统中长期存在,包括长尾用户和长尾项目两个方面。虽然现有许多研究缓解了序列推荐系统中的长尾问题,但大部分只是单方面地关注长尾用户或长尾项目。然而,长尾用户和长尾项目问题常常同时存在,只考虑其中一方会导致...长尾现象在序列推荐系统中长期存在,包括长尾用户和长尾项目两个方面。虽然现有许多研究缓解了序列推荐系统中的长尾问题,但大部分只是单方面地关注长尾用户或长尾项目。然而,长尾用户和长尾项目问题常常同时存在,只考虑其中一方会导致另一方性能不佳,且未关注到长尾用户、长尾项目各自的信息匮乏问题。提出一种利用GRU双分支信息协同增强的长尾推荐模型(long-tail recommendation model utilizing gated recurrent unit dualbranch information collaboration enhancement,LT-GRU),从用户与项目两个方面共同缓解长尾问题,并通过协同增强的方式丰富长尾信息。该模型由长尾用户和长尾项目双分支组成,每个分支分别负责各自的信息处理,并相互训练以充实另一方的信息。同时,引入一种偏好机制,通过演算用户与项目的影响因子,以动态调整用户偏好与项目热度,进一步缓解长尾推荐中信息不足问题。在Amazon系列的6个真实数据集上与6种经典模型进行实验对比,相较于长尾推荐模型中最优的结果,所提模型LT-GRU在HR与NDCG两个指标上分别平均提高2.49%、3.80%。这表明,在不牺牲头部用户和热门项目推荐性能的情况下,有效地缓解了长尾用户和长尾项目问题。展开更多
近年来,利用文本、视觉和音频数据分析视频中说话者情感的多模态情感分析(MSA)引起了广泛关注。然而,不同模态在情感分析中的贡献大不相同。通常,文本中包含的信息更加直观,因此寻求一种用于增强文本在情感分析中作用的策略显得尤为重...近年来,利用文本、视觉和音频数据分析视频中说话者情感的多模态情感分析(MSA)引起了广泛关注。然而,不同模态在情感分析中的贡献大不相同。通常,文本中包含的信息更加直观,因此寻求一种用于增强文本在情感分析中作用的策略显得尤为重要。针对这一问题,提出一种跨模态文本信息增强的多模态情感分析模型(MSAMCTE)。首先,使用BERT(Bidirectional Encoder Representations from Transformers)预训练模型提取文本特征,并使用双向长短期记忆(Bi-LSTM)网络对预处理后的音频和视频特征进行进一步处理;其次,通过基于文本的交叉注意力机制,将文本信息融入情感相关的非语言表示中,以学习面向文本的成对跨模态映射,从而获得有效的统一多模态表示;最后,使用融合特征进行情感分析。实验结果表明,与最优的基线模型——文本增强Transformer融合网络(TETFN)相比,MSAM-CTE在数据集CMU-MOSI(Carnegie Mellon University Multimodal Opinion Sentiment Intensity)上的平均绝对误差(MAE)和皮尔逊相关系数(Corr)分别降低了2.6%和提高了0.1%;在数据集CMU-MOSEI(Carnegie Mellon University Multimodal Opinion Sentiment and Emotion Intensity)上的两个指标分别降低了3.8%和提高了1.7%,验证了MSAM-CTE在情感分析中的有效性。展开更多
文摘长尾现象在序列推荐系统中长期存在,包括长尾用户和长尾项目两个方面。虽然现有许多研究缓解了序列推荐系统中的长尾问题,但大部分只是单方面地关注长尾用户或长尾项目。然而,长尾用户和长尾项目问题常常同时存在,只考虑其中一方会导致另一方性能不佳,且未关注到长尾用户、长尾项目各自的信息匮乏问题。提出一种利用GRU双分支信息协同增强的长尾推荐模型(long-tail recommendation model utilizing gated recurrent unit dualbranch information collaboration enhancement,LT-GRU),从用户与项目两个方面共同缓解长尾问题,并通过协同增强的方式丰富长尾信息。该模型由长尾用户和长尾项目双分支组成,每个分支分别负责各自的信息处理,并相互训练以充实另一方的信息。同时,引入一种偏好机制,通过演算用户与项目的影响因子,以动态调整用户偏好与项目热度,进一步缓解长尾推荐中信息不足问题。在Amazon系列的6个真实数据集上与6种经典模型进行实验对比,相较于长尾推荐模型中最优的结果,所提模型LT-GRU在HR与NDCG两个指标上分别平均提高2.49%、3.80%。这表明,在不牺牲头部用户和热门项目推荐性能的情况下,有效地缓解了长尾用户和长尾项目问题。
文摘近年来,利用文本、视觉和音频数据分析视频中说话者情感的多模态情感分析(MSA)引起了广泛关注。然而,不同模态在情感分析中的贡献大不相同。通常,文本中包含的信息更加直观,因此寻求一种用于增强文本在情感分析中作用的策略显得尤为重要。针对这一问题,提出一种跨模态文本信息增强的多模态情感分析模型(MSAMCTE)。首先,使用BERT(Bidirectional Encoder Representations from Transformers)预训练模型提取文本特征,并使用双向长短期记忆(Bi-LSTM)网络对预处理后的音频和视频特征进行进一步处理;其次,通过基于文本的交叉注意力机制,将文本信息融入情感相关的非语言表示中,以学习面向文本的成对跨模态映射,从而获得有效的统一多模态表示;最后,使用融合特征进行情感分析。实验结果表明,与最优的基线模型——文本增强Transformer融合网络(TETFN)相比,MSAM-CTE在数据集CMU-MOSI(Carnegie Mellon University Multimodal Opinion Sentiment Intensity)上的平均绝对误差(MAE)和皮尔逊相关系数(Corr)分别降低了2.6%和提高了0.1%;在数据集CMU-MOSEI(Carnegie Mellon University Multimodal Opinion Sentiment and Emotion Intensity)上的两个指标分别降低了3.8%和提高了1.7%,验证了MSAM-CTE在情感分析中的有效性。