期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
面向点击率预测的自注意力深度域嵌入因子分解机
1
作者 李广丽 叶艺源 +3 位作者 许广鑫 张红斌 吴光庭 吕敬钦 《工程科学与技术》 EI CAS CSCD 北大核心 2024年第5期287-296,共10页
点击率(CTR)预测通过预测用户对广告或商品的点击概率,实现数字广告精准推荐。针对现有CTR模型存在原始嵌入向量未精化、特征交互方式偏简单的问题,本文提出自注意力深度域嵌入因子分解机(self-attention deep field-embedded factoriza... 点击率(CTR)预测通过预测用户对广告或商品的点击概率,实现数字广告精准推荐。针对现有CTR模型存在原始嵌入向量未精化、特征交互方式偏简单的问题,本文提出自注意力深度域嵌入因子分解机(self-attention deep field-embedded factorization machine,Self-AtDFEFM)模型。首先,通过多头自注意力对原始嵌入向量加权,精化出关键低层特征;其次,构建深度域嵌入因子分解机(FEFM)模块,设计域对对称矩阵以提升不同特征域之间的交互强度,为高阶特征交互优选出低阶特征组合;再次,基于低阶特征组合构建深度神经网络(DNN),完成隐式高阶特征交互;然后,围绕精化后的嵌入向量,联合多头自注意力与残差机制堆叠多个显式高阶特征交互层,通过自注意力捕获同一特征在不同子空间上的互补信息,完成显示高阶特征交互;最后,联合显式与隐式高阶特征交互实现点击率预测。在Criteo和Avazu两大公开数据集上,将Self-AtDFEFM模型与主流基线模型在AUC和LogLoss指标上进行对比实验;为Self-AtDFEFM模型调制显式高阶特征交互层层数、注意力头数量、嵌入层维度及隐式高阶特征交互层层数等参数;对Self-AtDFEFM模型进行消融实验。实验结果表明:在两大数据集上,Self-AtDFEFM模型的AUC、LogLoss均优于主流基线模型;Self-AtDFEFM模型的全部参数已调为最佳;各模块形成合力以促使Self-AtDFEFM模型性能达到最优,其中显示高阶特征交互层的作用最大。Self-AtDFEFM模型各模块即插即用,易于构建和部署,且在性能与复杂度之间取得平衡,具备较高实用性。 展开更多
关键词 点击率预测 多头自注意力 特征交互 域嵌入因子分解机 深度神经网络
在线阅读 下载PDF
联合多视角Transformer编码与在线融合互学习的乳腺癌病理图像分类模型
2
作者 李广丽 叶艺源 +3 位作者 吴光庭 李传秀 吕敬钦 张红斌 《电子学报》 EI CAS CSCD 北大核心 2024年第7期2369-2381,共13页
乳腺癌是女性最常见的癌症.单一网络在乳腺癌病理图像分类中存在缺陷,卷积神经网络无法提取全局上下文,而Transformer不能准确描述局部细节.本文提出联合多视角Transformer编码与在线融合互学习的乳腺癌病理图像分类模型(Multi-View Tra... 乳腺癌是女性最常见的癌症.单一网络在乳腺癌病理图像分类中存在缺陷,卷积神经网络无法提取全局上下文,而Transformer不能准确描述局部细节.本文提出联合多视角Transformer编码与在线融合互学习的乳腺癌病理图像分类模型(Multi-View Transformer Online Fusion Mutual Learning,MVT-OFML).采用ResNet-50(Residual Network-50)提取图像局部特征,设计多视角Transformer编码模块,捕获图像中全局上下文;联合Logits和中间特征层构建OFML框架,实现ResNet-50与多视角Transformer编码模块间双向传递知识,使2个网络优势互补以完成乳腺癌病理图像分类.实验表明,在BreakHis和BACH数据集上,MVT-OFML的准确率比最强基线分别提升0.90%和2.26%,F1均值比最强基线分别提升4.75%和3.21%. 展开更多
关键词 乳腺癌 病理图像分类 多视角Transformer 卷积神经网络 在线融合互学习
在线阅读 下载PDF
具有双重稀疏机制的在线学习算法 被引量:1
3
作者 魏波 吴瑞峰 +3 位作者 张文生 吕敬钦 王莹莹 夏学文 《电子学报》 EI CAS CSCD 北大核心 2019年第10期2202-2210,共9页
针对大数据背景下数据分类问题,已有的在线学习算法通常引入L_1范数正则化增强预测模型的稀疏性,但单一的正则化约束不能高效的获取稀疏模型.基于此,提出了一种具有双重稀疏机制的在线学习算法(an online learning algorithm with dual ... 针对大数据背景下数据分类问题,已有的在线学习算法通常引入L_1范数正则化增强预测模型的稀疏性,但单一的正则化约束不能高效的获取稀疏模型.基于此,提出了一种具有双重稀疏机制的在线学习算法(an online learning algorithm with dual sparse mechanisms,DSOL).在DSOL算法中,一方面利用L_(1/2)正则化项约束目标函数以增强预测模型的稀疏性,提高算法的泛化性能.另一方面用改进的梯度截取法对数据特征进行选择,有效稀疏化预测模型.通过L_(1/2)正则化与改进的梯度截取策略的有机融合,有效利用了历史数据信息,提高了算法分类数据的性能.通过与另4种代表性稀疏在线学习算法在9个公开数据集的实验对比表明DSOL算法对数据分类的准确性更高. 展开更多
关键词 大数据 在线学习 稀疏性 L_(1/2)范数 平均梯度
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部