心理健康支持旨在帮助求助者应对心理健康问题。使用大语言模型(Large Language Models,LLMs)生成心理健康支持回复,有助于减轻心理咨询师的负担,提高心理健康支持的效率。尽管近期关于思维链(Chain-of-Thought,CoT)Prompting的研究旨...心理健康支持旨在帮助求助者应对心理健康问题。使用大语言模型(Large Language Models,LLMs)生成心理健康支持回复,有助于减轻心理咨询师的负担,提高心理健康支持的效率。尽管近期关于思维链(Chain-of-Thought,CoT)Prompting的研究旨在指导LLMs自动规划活动,取得了一定的成功,但这些研究没有对以往的经验进行提炼,导致LLMs生成的内容缺乏针对性和共情性,在心理健康支持场景下,这一问题尤为突出。为解决这个问题,该文定义了一种基于支持策略规划的心理健康支持生成框架S2P-MSG。该框架利用小语言模型(Small Language Models,SLMs)学习心理咨询师回复中支持策略规划的“人工经验”,生成多条动态策略链;使用Prompting方法引导LLMs选择最恰当的动态策略链,激发LLMs“智能”;并基于选中的动态策略链引导LLMs生成心理健康支持回复。该文在广泛使用的PsyQA数据集上进行了丰富的实验。实验结果表明,与SLMs模型及常见的Prompting方法相比,S2P-MSG框架生成的回复具有更高的相关性、帮助性和共情性。实验还发现,在应对心理健康风险水平较高和自我披露程度较高的求助帖时,S2P-MSG框架展现出了更为优异的性能。展开更多
图对比学习因其可有效缓解数据稀疏问题被广泛应用在推荐系统中.然而,目前大多数基于图对比学习的推荐算法均采用单一视角进行学习,这极大地限制了模型的泛化能力,且图卷积网络本身存在的过度平滑问题也影响着模型的稳定性.基于此,提出...图对比学习因其可有效缓解数据稀疏问题被广泛应用在推荐系统中.然而,目前大多数基于图对比学习的推荐算法均采用单一视角进行学习,这极大地限制了模型的泛化能力,且图卷积网络本身存在的过度平滑问题也影响着模型的稳定性.基于此,提出一种融合层注意力机制的多视角图对比学习推荐方法.一方面,该方法提出2种不同视角下的3种对比学习,在视图级视角下,通过对原始图添加随机噪声构建扰动增强视图,利用奇异值分解(singular value decomposition)重组构建SVD增强视图,对这2个增强视图进行视图级对比学习;在节点视角下,利用节点间的语义信息分别进行候选节点和候选结构邻居对比学习,并将3种对比学习辅助任务和推荐任务进行多任务学习优化,以提高节点嵌入的质量,从而提升模型的泛化能力.另一方面,在图卷积网络学习用户和项目的节点嵌入时,采用层注意力机制的方式聚合最终的节点嵌入,提高模型的高阶连通性,以缓解过度平滑问题.在4个公开数据集LastFM,Gowalla,Ifashion,Yelp上与10个经典模型进行对比,结果表明该方法在Recall,Precision,NDCG这3个指标上分别平均提升3.12%,3.22%,4.06%,这说明所提方法是有效的.展开更多
长尾现象在序列推荐系统中长期存在,包括长尾用户和长尾项目两个方面。虽然现有许多研究缓解了序列推荐系统中的长尾问题,但大部分只是单方面地关注长尾用户或长尾项目。然而,长尾用户和长尾项目问题常常同时存在,只考虑其中一方会导致...长尾现象在序列推荐系统中长期存在,包括长尾用户和长尾项目两个方面。虽然现有许多研究缓解了序列推荐系统中的长尾问题,但大部分只是单方面地关注长尾用户或长尾项目。然而,长尾用户和长尾项目问题常常同时存在,只考虑其中一方会导致另一方性能不佳,且未关注到长尾用户、长尾项目各自的信息匮乏问题。提出一种利用GRU双分支信息协同增强的长尾推荐模型(long-tail recommendation model utilizing gated recurrent unit dualbranch information collaboration enhancement,LT-GRU),从用户与项目两个方面共同缓解长尾问题,并通过协同增强的方式丰富长尾信息。该模型由长尾用户和长尾项目双分支组成,每个分支分别负责各自的信息处理,并相互训练以充实另一方的信息。同时,引入一种偏好机制,通过演算用户与项目的影响因子,以动态调整用户偏好与项目热度,进一步缓解长尾推荐中信息不足问题。在Amazon系列的6个真实数据集上与6种经典模型进行实验对比,相较于长尾推荐模型中最优的结果,所提模型LT-GRU在HR与NDCG两个指标上分别平均提高2.49%、3.80%。这表明,在不牺牲头部用户和热门项目推荐性能的情况下,有效地缓解了长尾用户和长尾项目问题。展开更多
文摘心理健康支持旨在帮助求助者应对心理健康问题。使用大语言模型(Large Language Models,LLMs)生成心理健康支持回复,有助于减轻心理咨询师的负担,提高心理健康支持的效率。尽管近期关于思维链(Chain-of-Thought,CoT)Prompting的研究旨在指导LLMs自动规划活动,取得了一定的成功,但这些研究没有对以往的经验进行提炼,导致LLMs生成的内容缺乏针对性和共情性,在心理健康支持场景下,这一问题尤为突出。为解决这个问题,该文定义了一种基于支持策略规划的心理健康支持生成框架S2P-MSG。该框架利用小语言模型(Small Language Models,SLMs)学习心理咨询师回复中支持策略规划的“人工经验”,生成多条动态策略链;使用Prompting方法引导LLMs选择最恰当的动态策略链,激发LLMs“智能”;并基于选中的动态策略链引导LLMs生成心理健康支持回复。该文在广泛使用的PsyQA数据集上进行了丰富的实验。实验结果表明,与SLMs模型及常见的Prompting方法相比,S2P-MSG框架生成的回复具有更高的相关性、帮助性和共情性。实验还发现,在应对心理健康风险水平较高和自我披露程度较高的求助帖时,S2P-MSG框架展现出了更为优异的性能。
文摘图对比学习因其可有效缓解数据稀疏问题被广泛应用在推荐系统中.然而,目前大多数基于图对比学习的推荐算法均采用单一视角进行学习,这极大地限制了模型的泛化能力,且图卷积网络本身存在的过度平滑问题也影响着模型的稳定性.基于此,提出一种融合层注意力机制的多视角图对比学习推荐方法.一方面,该方法提出2种不同视角下的3种对比学习,在视图级视角下,通过对原始图添加随机噪声构建扰动增强视图,利用奇异值分解(singular value decomposition)重组构建SVD增强视图,对这2个增强视图进行视图级对比学习;在节点视角下,利用节点间的语义信息分别进行候选节点和候选结构邻居对比学习,并将3种对比学习辅助任务和推荐任务进行多任务学习优化,以提高节点嵌入的质量,从而提升模型的泛化能力.另一方面,在图卷积网络学习用户和项目的节点嵌入时,采用层注意力机制的方式聚合最终的节点嵌入,提高模型的高阶连通性,以缓解过度平滑问题.在4个公开数据集LastFM,Gowalla,Ifashion,Yelp上与10个经典模型进行对比,结果表明该方法在Recall,Precision,NDCG这3个指标上分别平均提升3.12%,3.22%,4.06%,这说明所提方法是有效的.
文摘长尾现象在序列推荐系统中长期存在,包括长尾用户和长尾项目两个方面。虽然现有许多研究缓解了序列推荐系统中的长尾问题,但大部分只是单方面地关注长尾用户或长尾项目。然而,长尾用户和长尾项目问题常常同时存在,只考虑其中一方会导致另一方性能不佳,且未关注到长尾用户、长尾项目各自的信息匮乏问题。提出一种利用GRU双分支信息协同增强的长尾推荐模型(long-tail recommendation model utilizing gated recurrent unit dualbranch information collaboration enhancement,LT-GRU),从用户与项目两个方面共同缓解长尾问题,并通过协同增强的方式丰富长尾信息。该模型由长尾用户和长尾项目双分支组成,每个分支分别负责各自的信息处理,并相互训练以充实另一方的信息。同时,引入一种偏好机制,通过演算用户与项目的影响因子,以动态调整用户偏好与项目热度,进一步缓解长尾推荐中信息不足问题。在Amazon系列的6个真实数据集上与6种经典模型进行实验对比,相较于长尾推荐模型中最优的结果,所提模型LT-GRU在HR与NDCG两个指标上分别平均提高2.49%、3.80%。这表明,在不牺牲头部用户和热门项目推荐性能的情况下,有效地缓解了长尾用户和长尾项目问题。