期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于深度学习的人脸属性编辑研究概述
1
作者 王健 孙沐毅 +2 位作者 李琦 张堃博 孙哲南 《计算机应用与软件》 北大核心 2025年第1期11-24,共14页
近几年来,人脸属性编辑技术引起了民众和研究人员广泛地关注,各大娱乐软件将人脸属性编辑技术应用于图像编辑中,实现了改变人的发色、添加胡子和改变年龄等功能。研究人员利用人脸属性编辑算法,生成不同姿态、表情,以及在不同光照下的... 近几年来,人脸属性编辑技术引起了民众和研究人员广泛地关注,各大娱乐软件将人脸属性编辑技术应用于图像编辑中,实现了改变人的发色、添加胡子和改变年龄等功能。研究人员利用人脸属性编辑算法,生成不同姿态、表情,以及在不同光照下的人脸图像,以辅助人脸识别系统,提升识别精度。主要介绍基于深度学习的人脸属性编辑的发展历程,分类归纳其中的主要技术路线和相关算法。基于深度学习的人脸属性编辑主要由基于属性标签的人脸属性编辑、基于参考条件信息的人脸属性编辑、基于隐编码的属性编辑三个部分构成。对深度学习中人脸属性编辑这一领域的发展趋势进行系统性的总结与展望,分析人脸属性编辑任务在更高分辨率人脸图像上的发展潜力,以及在更真实的人脸视频生成等方面潜在的提升空间。 展开更多
关键词 人工智能 深度学习 人脸属性编辑 人脸操纵 人脸识别 伪造与反伪造
在线阅读 下载PDF
面向人脸属性编辑的三阶段对抗扰动生成主动防御算法 被引量:1
2
作者 陈北京 张海涛 李玉茹 《计算机学报》 EI CAS CSCD 北大核心 2024年第3期677-689,共13页
针对恶意人脸属性编辑行为,基于取证的被动防御技术只能对篡改行为进行取证并不能防止其产生,从而难以消除恶意篡改行为已经造成的损失.因此,主动防御技术应运而生,其可以破坏属性编辑的输出从而避免人脸被篡改使用.然而,现有两阶段训... 针对恶意人脸属性编辑行为,基于取证的被动防御技术只能对篡改行为进行取证并不能防止其产生,从而难以消除恶意篡改行为已经造成的损失.因此,主动防御技术应运而生,其可以破坏属性编辑的输出从而避免人脸被篡改使用.然而,现有两阶段训练人脸篡改主动防御框架存在迁移性和扰动鲁棒性不足的问题,为此本文通过优化两阶段训练架构及损失函数和引入一个辅助分类器,提出一种三阶段对抗扰动主动防御框架.本文首先修改两阶段训练架构中的代理目标模型并基于此设计了训练扰动生成器的属性编辑损失,以提升代理模型的重建性能和属性约束能力,从而减少对代理模型的过拟合;其次,在训练阶段引入辅助分类器对代理模型提取的编码后特征进行源属性分类并基于此设计训练扰动生成器的辅助分类器损失,从而将原本的两阶段交替训练改为代理目标模型、辅助分类器和扰动生成器的三阶段交替训练,期望通过对抗攻击辅助分类器以促进对篡改模型的主动防御;最后,在扰动生成器的训练中,引入攻击层以促进对抗扰动对滤波和JPEG压缩的鲁棒性.实验结果验证,本文提出的框架能够比现有框架更好地将主动防御从白盒的代理目标模型迁移到黑盒的属性编辑模型,黑盒性能提升16.17%,且生成的对抗扰动较基线算法具有更强的鲁棒性,针对JPEG压缩的性能(PSNR)提升13.91%,针对高斯滤波提升17.76%. 展开更多
关键词 人脸属性编辑 主动防御 对抗攻击 辅助分类器 交替训练
在线阅读 下载PDF
人脸属性编辑的全局组织网络算法 被引量:1
3
作者 戴忠健 顾晓炜 《北京理工大学学报》 EI CAS CSCD 北大核心 2021年第12期1253-1261,共9页
提出一种新的基于生成对抗网络的人脸属性编辑全局组织网络算法.人脸属性编辑是指通过结合编码解码器结构与生成对抗网络,生成具有期望属性的人脸图像.传统的编码解码器结构对人脸的重构和编辑能力有限.直接将编码特征与属性标签结合会... 提出一种新的基于生成对抗网络的人脸属性编辑全局组织网络算法.人脸属性编辑是指通过结合编码解码器结构与生成对抗网络,生成具有期望属性的人脸图像.传统的编码解码器结构对人脸的重构和编辑能力有限.直接将编码特征与属性标签结合会因为融入编码特征造成属性编辑性能低下,同时,也会由于缺失编码特征造成人脸还原度的损失,两者无法平衡.因此,提出U型传递方式与全局组织单元.U型传递改变了传统的属性流动方式,并生成反向状态.全局组织单元结合反向状态生成全局属性信息,在编码解码器中搭建桥梁,帮助解码器更好地融入编码器特征与属性信息.与此同时,为了更好地配合全局组织模块,重新设计了编码器下采样.实验结果表明,本文所提方法可以同时提高模型的人脸重塑与属性编辑能力. 展开更多
关键词 人脸属性编辑 生成对抗网络 下采样 编码解码器
在线阅读 下载PDF
结合小波变换高频信息的可控面部性别伪造
4
作者 陈万泽 陈家祯 +3 位作者 黄丽清 叶锋 黄添强 罗海峰 《计算机科学》 CSCD 北大核心 2023年第S02期340-349,共10页
基于生成对抗网络(Generative Adversarial Network,GAN)的图像到图像的翻译(Image-to-Image Translation,I2I)技术在各种领域中取得了一系列突破,并广泛应用于图像合成、图像着色、图像超分辨率,特别是在面部属性操作方面获得了深入研... 基于生成对抗网络(Generative Adversarial Network,GAN)的图像到图像的翻译(Image-to-Image Translation,I2I)技术在各种领域中取得了一系列突破,并广泛应用于图像合成、图像着色、图像超分辨率,特别是在面部属性操作方面获得了深入研究。为了解决目前I2I领域由于模型架构以及数据不均衡所导致的不同翻译方向的生成图像性能表现差异的问题,提出了一种HFIGAN(High Frequency Injection GAN)模型,实现了结合高频信息的可控面部性别伪造。首先在结合高频信息的小波模块中,将编码特征通过离散小波变换进行特征级的分解,将所得到的高频信息在解码阶段对等注入,使得在上采样过程中的源域与目标域之间的信息可以达成平衡状态。其次,针对I2I任务中多域转换在不同方向的翻译难度不一致的问题,通过对损失函数进行重新设计,将难易样本的损失进行放缩,提高难样本对模型的反馈,使模型更专注于难样本的训练从而提升模型性能。最后,提出基于风格特征的多样性正则项,将风格向量在不同空间中的距离度量添加至传统的多样性损失中进行监督,使得模型能在保持生成图像多样性的同时提升图像的生成质量。分别在CelebA-HQ数据集和FFHQ数据集上进行实验并验证了所提方法的有效性。在主流的I2I模型中结合所提损失进行了损失函数通用性验证。实验结果表明,与以往先进方法相比,HFIGAN在面部性别伪造方面性能更加优异,所提出的损失函数具备一定的通用性。 展开更多
关键词 图像生成 生成对抗网络 图像到图像的翻译 人脸属性编辑 聚焦损失
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部