期刊文献+
共找到105篇文章
< 1 2 6 >
每页显示 20 50 100
Synthesizing Performance-driven Facial Animation
1
作者 LUO Chang-Wei YU Jun WANG Zeng-Fu 《自动化学报》 EI CSCD 北大核心 2014年第10期2245-2252,共8页
关键词 人脸动画 性能驱动 面部表情 动画系统 人脸模型 实时输出 数字字符 表面变形
在线阅读 下载PDF
基于深度学习的人脸动画驱动方法综述 被引量:1
2
作者 刘龙 李浩生 +3 位作者 张梦璇 杜莹 常雅淇 张文博 《西安电子科技大学学报》 北大核心 2025年第2期57-84,共28页
人脸动画技术旨在通过输入源数据(如音频或视频)动态驱动静态人脸图像,以产生逼真的动画效果。深度学习技术的发展极大地推动了人脸动画技术的进步,深度学习模型能够学习并捕捉面部特征与运动规律,通过自动化驱动过程实现具有真实性与... 人脸动画技术旨在通过输入源数据(如音频或视频)动态驱动静态人脸图像,以产生逼真的动画效果。深度学习技术的发展极大地推动了人脸动画技术的进步,深度学习模型能够学习并捕捉面部特征与运动规律,通过自动化驱动过程实现具有真实性与个性化表达的人脸动画。目前,基于深度学习的人脸动画领域已有大量研究成果,但现有的综述多聚焦于特定技术或单一模态的驱动源,文中系统地综述了基于深度学习的人脸动画驱动技术,分别按照音视频驱动面部动画的流程总结研究现状。首先,介绍了从输入源数据提取面部特征的一般步骤;其次,深入分析了特征提取与动画合成的关键技术,并对比不同深度学习网络架构在各步骤的优劣;最后,总结不同架构下的动画生成方法并比较异同。此外,还列举了人脸动画方法常用的数据集及评价指标,总结了领域内现存挑战,进一步阐述了未来工作的发展趋势并做出一些展望,旨在为研究人员提供深度学习在人脸动画领域应用的更全面视角。 展开更多
关键词 人脸动画 深度学习 音视频驱动 虚拟人 研究综述
在线阅读 下载PDF
融合音频内容、风格和情感特征的人脸动画生成方法
3
作者 张欣茹 朱欣娟 高全力 《计算机应用研究》 北大核心 2025年第2期636-640,共5页
现有的音频驱动人脸动画技术主要注重唇部运动与音频的同步性,忽略了对人物面部表情或头部运动的再现能力。为此,提出了一种融合音频内容、风格和情感特征的高质量人脸动画生成方法(ACSEF)。首先,设计了情感动画模块(EAM),从音频中提取... 现有的音频驱动人脸动画技术主要注重唇部运动与音频的同步性,忽略了对人物面部表情或头部运动的再现能力。为此,提出了一种融合音频内容、风格和情感特征的高质量人脸动画生成方法(ACSEF)。首先,设计了情感动画模块(EAM),从音频中提取隐含的情感辅助特征来估计更加准确的面部情感标志位移,然后与语音内容和说话者风格动画的面部地标位移进行融合,提高landmarks(面部地标)预测的准确性和生动性。其次,设计了一个基于U-Net模型的注意力增强解码器(AADU),使得估计的地标与图像最终解码为逼真的包含唇音同步、头部运动和面部表情的理想视频帧。实验表明,该方法既能增强面部情感表达,又可使图像更加清晰,效果优于对比基线模型。 展开更多
关键词 音频驱动 人脸动画 情感动画模块 注意力增强解码器
在线阅读 下载PDF
基于交互式进化算法的三维表情动画生成
4
作者 张雯婷 刘漫丹 +1 位作者 朱宝旭 谢立志 《华东理工大学学报(自然科学版)》 北大核心 2025年第4期538-551,共14页
三维面部表情动画已广泛融入人们的日常生活,但目前大多数表情生成技术并未考虑到实际用户的偏好。这些方法大多依赖于预先定义的心理原型,限制了其生成丰富且具有表现力的表情动画的潜力。针对这两个问题,本文提出了一种全新的表情动... 三维面部表情动画已广泛融入人们的日常生活,但目前大多数表情生成技术并未考虑到实际用户的偏好。这些方法大多依赖于预先定义的心理原型,限制了其生成丰富且具有表现力的表情动画的潜力。针对这两个问题,本文提出了一种全新的表情动画编码方案,并采用交互式遗传算法(Interactive Genetic Algorithm,IGA)实现表情动画的自动进化,解码时则采用Dirichlet自由变形算法(Dirichlet Free-Form Deformation,DFFD)控制人脸网格发生形变;为了维持表情动画种群的多样性,提出了两种变异算子:带屏蔽区间的均匀变异和共享变异点的均匀变异。实验结果证实这两种算子有效降低了进化过程中种群内的相似度。实际用户参与的实验进一步验证了所提方法在生成符合用户偏好且丰富多样的表情动画方面的可行性。 展开更多
关键词 表情动画生成 交互式遗传算法 用户评价 变异算子 种群多样性
在线阅读 下载PDF
Multimodal Emotion Recognition Based on Facial Expression and ECG Signal
5
作者 NIU Jian-wei AN Yue-qi +1 位作者 NI Jie JIANG Chang-hua 《包装工程》 CAS 北大核心 2022年第4期71-79,共9页
As a key link in human-computer interaction,emotion recognition can enable robots to correctly perceive user emotions and provide dynamic and adjustable services according to the emotional needs of different users,whi... As a key link in human-computer interaction,emotion recognition can enable robots to correctly perceive user emotions and provide dynamic and adjustable services according to the emotional needs of different users,which is the key to improve the cognitive level of robot service.Emotion recognition based on facial expression and electrocardiogram has numerous industrial applications.First,three-dimensional convolutional neural network deep learning architecture is utilized to extract the spatial and temporal features from facial expression video data and electrocardiogram(ECG)data,and emotion classification is carried out.Then two modalities are fused in the data level and the decision level,respectively,and the emotion recognition results are then given.Finally,the emotion recognition results of single-modality and multi-modality are compared and analyzed.Through the comparative analysis of the experimental results of single-modality and multi-modality under the two fusion methods,it is concluded that the accuracy rate of multi-modal emotion recognition is greatly improved compared with that of single-modal emotion recognition,and decision-level fusion is easier to operate and more effective than data-level fusion. 展开更多
关键词 multi-modal emotion recognition facial expression ECG signal three-dimensional convolutional neural network
在线阅读 下载PDF
基于改进薄板样条运动模型的人脸动画算法 被引量:1
6
作者 杨硕 王一丁 《计算机工程》 CAS CSCD 北大核心 2024年第6期255-265,共11页
面部动画在电影、游戏、虚拟现实等领域起着关键作用,对于实现逼真、生动的人脸动画和情感传达至关重要。当面临面部形状、姿态、表情等多个变化因素时,虽然通过薄板样条非线性变换可以获得较好的运动估计结果,但在处理面部复杂纹理和... 面部动画在电影、游戏、虚拟现实等领域起着关键作用,对于实现逼真、生动的人脸动画和情感传达至关重要。当面临面部形状、姿态、表情等多个变化因素时,虽然通过薄板样条非线性变换可以获得较好的运动估计结果,但在处理面部复杂纹理和嘴部运动时存在运动估计不精细的问题,需要更强大的图像修复能力。因此,提出一种基于改进薄板样条运动模型(TPSMM)的人脸动画算法。首先,在TPSMM的基础上引入一种Farneback光流金字塔算法,通过与薄板样条变换和背景仿射变换相结合,使得人脸局部运动估计更精准;其次,为了更真实地恢复缺失区域的细节纹理信息,提出一种多尺度细节感知网络,该网络在编码器中通过嵌入通道注意力(ECA)模块减少源图像因多层下采样而导致的人脸细节信息丢失,在解码器中利用坐标注意力(CA)模块来有效捕获运动估计特征图中不同位置的重要特征,提高人脸图像的生成质量。实验结果表明,相比一阶段运动模型(FOMM)、关节动画的运动表示法(MRAA)、TPSMM等,该算法在MUG、UvA-Nemo和Oulu-CASIA数据集上的L1、平均关键点距离(AKD)、平均欧氏距离(AED)数值均达到最优,平均分别为0.0129、0.923、0.00099。 展开更多
关键词 面部动画 光流估计 薄板样条 多尺度特征融合 通道注意力机制 坐标注意力机制
在线阅读 下载PDF
基于潜在空间的动漫人脸风格迁移与编辑方法
7
作者 邓海欣 张凤全 +2 位作者 王楠 张万才 雷劼睿 《系统仿真学报》 CAS CSCD 北大核心 2024年第12期2834-2849,共16页
为解决现有图像仿真中动漫风格迁移网络存在图像失真和风格单一等问题,提出了适用于动漫人脸风格迁移和编辑的TGFE-TrebleStyleGAN(text-guided facial editing with TrebleStyleGAN)网络框架。利用潜在空间的向量引导生成人脸图像,并在... 为解决现有图像仿真中动漫风格迁移网络存在图像失真和风格单一等问题,提出了适用于动漫人脸风格迁移和编辑的TGFE-TrebleStyleGAN(text-guided facial editing with TrebleStyleGAN)网络框架。利用潜在空间的向量引导生成人脸图像,并在TrebleStyleGAN中设计了细节控制模块和特征控制模块来约束生成图像的外观。迁移网络生成的图像不仅用作风格控制信号,还用作约束细粒度分割后的编辑区域。引入文本生成图像技术,捕捉风格迁移图像和语义信息的关联性。通过在开源数据集和自建配对标签的动漫人脸数据集上的实验表明:相较于基线模型DualStyleGAN,该模型的FID降低了2.819,SSIM与NIMA分别提升了0.028和0.074。集成风格迁移与编辑的方法能够确保在生成过程中既保留原有动漫人脸细节风格,又具备灵活的编辑能力,减少了图像的失真问题,在生成图像特征的一致性和动漫人脸图像风格相似性中表现更优。 展开更多
关键词 动漫风格迁移 生成对抗网络 潜在空间 动漫人脸编辑 文本引导图像生成
在线阅读 下载PDF
文本驱动的情绪多样化人脸动画生成研究
8
作者 刘增科 殷继彬 《计算机科学》 CSCD 北大核心 2024年第S02期313-320,共8页
文中介绍了一种新型的文本驱动人脸动画合成技术,该技术通过融合情绪模型以增强面部表情的表现力。这一技术主要由两个核心部分构成:面部情感模拟和唇形与语音的一致性。首先,通过对输入文本的深度分析,识别出其中包含的情感类型及其强... 文中介绍了一种新型的文本驱动人脸动画合成技术,该技术通过融合情绪模型以增强面部表情的表现力。这一技术主要由两个核心部分构成:面部情感模拟和唇形与语音的一致性。首先,通过对输入文本的深度分析,识别出其中包含的情感类型及其强度。然后,基于这些情感信息,应用三维自由变形算法(DFFD)来生成相应的面部表情。与此同时,收集人类发音时的语音音素和唇形数据,并利用强制对齐技术,将这些数据与文本中的语音音素在时间上进行精确匹配,从而产生一系列唇部关键点的变化。随后,通过线性插值方法生成中间帧,以进一步细化唇部运动的时间序列。最后,使用DFFD算法根据这些时间序列数据合成相应的唇形动画。通过对面部情感和唇形动画进行细致的权重配比,成功实现了高度逼真的虚拟人脸表情动画。该研究不仅解决了文本驱动面部表情合成中的信息缺失问题,而且克服了表情单一和面部表情与唇形不协调的挑战,为人机交互、游戏开发、影视制作等领域提供了一种创新的应用方案。 展开更多
关键词 文本驱动动画 情绪模型 DFFD 面部动画合成 情绪强度 唇形语音一致性
在线阅读 下载PDF
一个MPEG-4兼容的人脸动画系统 被引量:13
9
作者 王奎武 王洵 +1 位作者 董兰芳 陈意云 《计算机研究与发展》 EI CSCD 北大核心 2001年第5期529-535,共7页
MPEG- 4是一个基于对象的多媒体压缩标准 ,允许将场景中的音频视频对象 (自然的或合成的 )独立编码 .它能够将人脸动画和多媒体通信集成在一起 ,并且可以在低带宽的网络上控制虚拟人脸 .首先介绍 MPEG- 4中关于人脸动画的基本概念 ,然... MPEG- 4是一个基于对象的多媒体压缩标准 ,允许将场景中的音频视频对象 (自然的或合成的 )独立编码 .它能够将人脸动画和多媒体通信集成在一起 ,并且可以在低带宽的网络上控制虚拟人脸 .首先介绍 MPEG- 4中关于人脸动画的基本概念 ,然后提出一个 MPEG- 4兼容的人脸动画系统 . 展开更多
关键词 人脸动画系统 MPEG-4 图像编码 多媒体压缩标准
在线阅读 下载PDF
基于机器学习的语音驱动人脸动画方法 被引量:20
10
作者 陈益强 高文 +1 位作者 王兆其 姜大龙 《软件学报》 EI CSCD 北大核心 2003年第2期215-221,共7页
语音与唇动面部表情的同步是人脸动画的难点之一.综合利用聚类和机器学习的方法学习语音信号和唇动面部表情之间的同步关系,并应用于基于MEPG-4标准的语音驱动人脸动画系统中.在大规模音视频同步数据库的基础上,利用无监督聚类发现了能... 语音与唇动面部表情的同步是人脸动画的难点之一.综合利用聚类和机器学习的方法学习语音信号和唇动面部表情之间的同步关系,并应用于基于MEPG-4标准的语音驱动人脸动画系统中.在大规模音视频同步数据库的基础上,利用无监督聚类发现了能有效表征人脸运动的基本模式,采用神经网络学习训练,实现了从含韵律的语音特征到人脸运动基本模式的直接映射,不仅回避了语音识别鲁棒性不高的缺陷,同时学习的结果还可以直接驱动人脸网格.最后给出对语音驱动人脸动画系统定量和定性的两种分析评价方法.实验结果表明,基于机器学习的语音驱动人脸动画不仅能有效地解决语音视频同步的难题,增强动画的真实感和逼真性,同时基于MPEG-4的学习结果独立于人脸模型,还可用来驱动各种不同的人脸模型,包括真实视频、2D卡通人物以及3维虚拟人脸. 展开更多
关键词 机器学习 语音驱动 人脸动画 语音识别 模式识别
在线阅读 下载PDF
脸部表情动画建模方法的研究与实现 被引量:14
11
作者 詹永照 宋顺林 +1 位作者 佘江峰 张建明 《软件学报》 EI CSCD 北大核心 1998年第2期81-85,共5页
本文提出了一种分层设计的规则逻辑网格的脸部轮廓造型法,同时,以脸部动作编码系统FACS(facialactioncodingsystem)为依据,以脸部解剖学和生物力学特点为前提,提出了研制各种肌肉运动的调节器,通过... 本文提出了一种分层设计的规则逻辑网格的脸部轮廓造型法,同时,以脸部动作编码系统FACS(facialactioncodingsystem)为依据,以脸部解剖学和生物力学特点为前提,提出了研制各种肌肉运动的调节器,通过合理使用和协调有关肌肉调节器产生相应的脸部表情的动画. 展开更多
关键词 计算机图形学 脸部造型 肌肉调节器 脸部动画
在线阅读 下载PDF
基于特征发现的卡通人脸肖像生成 被引量:16
12
作者 周仁琴 周经野 +1 位作者 陈益强 刘军发 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2006年第9期1362-1366,共5页
通过对成年男女各100幅真实照片进行特征提取和特征统计,获得平均人脸特征分布信息,对新输入的人脸照片进行特征比对,发现其相对突出的特征,采用主动形状模型特征提取和特征线对相结合的方法,对突出的特征实现自动变形,生成人物的卡通肖... 通过对成年男女各100幅真实照片进行特征提取和特征统计,获得平均人脸特征分布信息,对新输入的人脸照片进行特征比对,发现其相对突出的特征,采用主动形状模型特征提取和特征线对相结合的方法,对突出的特征实现自动变形,生成人物的卡通肖像.实验结果表明,该方法具有人脸数据量大、特征提取和发现的自动化、变形效果好等优点. 展开更多
关键词 漫画 肖像生成 图像处理 图像变形 人脸动画 卡通动画
在线阅读 下载PDF
大鼠创伤性面瘫实验动物模型的建立 被引量:8
13
作者 王立军 周树夏 +1 位作者 董绍忠 赵宇 《实用口腔医学杂志》 CAS CSCD 北大核心 1999年第3期183-185,共3页
目的:建立大鼠面神经撞击伤的实验动物模型。方法:以不同速度和压缩幅度撞击20只SD大鼠右侧面神经干,造成面神经不同程度瘫痪。结果:不同撞击条件可引起不同程度的面瘫,面瘫严重度与撞击速度和撞击压缩幅度成正相关关系,面神... 目的:建立大鼠面神经撞击伤的实验动物模型。方法:以不同速度和压缩幅度撞击20只SD大鼠右侧面神经干,造成面神经不同程度瘫痪。结果:不同撞击条件可引起不同程度的面瘫,面瘫严重度与撞击速度和撞击压缩幅度成正相关关系,面神经干可出现散在纤维断裂、大部分神经纤维断裂、神经干完全断裂等病理改变。结论:所建立的大鼠创伤性面瘫动物模型操作简便,测速精确,致伤撞击力可控,且具有重复性,可引起不同程度的面瘫,其损伤病变与人类相似,病变典型,因此可做为研究创伤性面瘫的较理想的实验动物模型。 展开更多
关键词 面神经麻痹 创伤 动物模型
在线阅读 下载PDF
真实感虚拟人脸的实现和应用 被引量:3
14
作者 董兰芳 王洵 陈意云 《小型微型计算机系统》 CSCD 北大核心 2002年第1期90-92,共3页
实现了一个交互式人脸建模和动画的工具 ,用户可以很容易从一个人的正面和侧面的照片构造出头部的三维模型 ,并在这个模型上实现特定人脸的表情和动画 ,同时可以进行口型和声音的同步 .基于以上技术 ,实现了一个虚拟人脸的动画组件 ,可... 实现了一个交互式人脸建模和动画的工具 ,用户可以很容易从一个人的正面和侧面的照片构造出头部的三维模型 ,并在这个模型上实现特定人脸的表情和动画 ,同时可以进行口型和声音的同步 .基于以上技术 ,实现了一个虚拟人脸的动画组件 ,可以应用于 WINDOWS应用系统中 。 展开更多
关键词 人脸建模 人脸动画 虚拟人脸 真实感 三维建模 计算机图形学
在线阅读 下载PDF
基于肌肉模型的眼睛动画研究 被引量:4
15
作者 吕梦雅 张志刚 +1 位作者 唐勇 毕卫红 《系统仿真学报》 CAS CSCD 北大核心 2008年第20期5573-5575,5580,共4页
针对目前眼睛肌肉动画模型不够真实,细节表现不够逼真,提出了一种改进的基于肌肉模型的眼睛动画算法,通过设置眼部范围向量和眼部肌肉三维方向上的影响因子,优化了眼部肌肉运动模型,提高了运算速度,并根据眼皮运动的特殊性,单独对眼皮... 针对目前眼睛肌肉动画模型不够真实,细节表现不够逼真,提出了一种改进的基于肌肉模型的眼睛动画算法,通过设置眼部范围向量和眼部肌肉三维方向上的影响因子,优化了眼部肌肉运动模型,提高了运算速度,并根据眼皮运动的特殊性,单独对眼皮采用了一种高效的算法模型,此方法首先对眼皮标注特征点,然后将眼皮运动模拟为眼皮顶点沿两眼角为轴的上下运动,根据眼皮运动的规律,算出不同位置顶点的旋转角度,采用插值方法计算新的顶点,实验结果表明该算法具有较好的细节表现,生成的眼睛动画逼真。 展开更多
关键词 眼睛动画 眼皮运动 表情动画 肌肉模型
在线阅读 下载PDF
大鼠与家兔面神经颅外段解剖的比较研究 被引量:6
16
作者 牛宇 胡敏 +1 位作者 刘宇 高俊明 《口腔医学研究》 CAS CSCD 2007年第6期640-642,共3页
目的:观测正常大鼠及家兔面神经的颅外段主干及分支的解剖及组织学指标,研究并评价两种实验动物模型在面神经缺损修复中的应用特点。方法:在手术显微镜下解剖大鼠与家兔双侧面神经,游标卡尺测量各分支的长度、中点外径。改良特殊三色法... 目的:观测正常大鼠及家兔面神经的颅外段主干及分支的解剖及组织学指标,研究并评价两种实验动物模型在面神经缺损修复中的应用特点。方法:在手术显微镜下解剖大鼠与家兔双侧面神经,游标卡尺测量各分支的长度、中点外径。改良特殊三色法染色,在光学显微镜观察细胞、轴突、髓鞘形态。结果:大鼠和家兔面神经出茎乳孔后分为颞支、颧支、颊支、下颌缘支和颈支至面部表情肌。大鼠5个主要分支共干发出,而家兔颞支和颧支由颞面干发出;颊支分叉较多,分为上下颊支,行至口角。大鼠各分支神经束较少,多为2~3束,而家兔神经束平均为9束。结论:家兔表情肌活动较明显,应选择家兔作为面神经缺损修复动物模型;大鼠面神经各分支分叉少,可用于病理学及组织学的研究。在分支的选取上首先考虑面神经颊支和下颌缘支。 展开更多
关键词 大鼠 家兔 面神经 动物模型
在线阅读 下载PDF
应用Cult3D技术实现交互式三维人脸动画 被引量:14
17
作者 濮青 徐云 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2004年第3期382-384,共3页
介绍一种新的Web3D实现技术Cult3D ,对比了其与VRML在实现网络三维图形技术上的优越性 。
关键词 交互式三维人脸动画 CULT3D技术 虚拟现实 计算机图形学
在线阅读 下载PDF
基于MPEG-4的三维人脸动画 被引量:2
18
作者 蒋秀凤 蒲晓蓉 章毅 《电子科技大学学报》 EI CAS CSCD 北大核心 2007年第3期569-572,共4页
具有真实感的三维人脸动画是计算机图形学研究的一个重要分支,有着广泛的应用领域。如何在三维人脸模型上实时地模拟人脸的运动,产生具有真实感的人脸表情和动作,是其中的一个难点。该文在MPEG-4的三维人脸动画原理的基础上提出一种新... 具有真实感的三维人脸动画是计算机图形学研究的一个重要分支,有着广泛的应用领域。如何在三维人脸模型上实时地模拟人脸的运动,产生具有真实感的人脸表情和动作,是其中的一个难点。该文在MPEG-4的三维人脸动画原理的基础上提出一种新的基于MPEG-4的、适宜于任意拓扑结构模型的三维人脸动画实现方法。该方法能够在FAP帧的驱动下实现真实感较强的三维人脸动画。 展开更多
关键词 人脸动画 人脸动画参数 人脸特征点 MPEG-4
在线阅读 下载PDF
基于MPEG-4的融合多元素的三维人脸动画合成方法 被引量:7
19
作者 尹宝才 王恺 王立春 《北京工业大学学报》 EI CAS CSCD 北大核心 2011年第2期266-271,共6页
为了实时合成真实感的可视语音,提出了一种融合口型、表情等多种运动元素的三维人脸动画合成方法.以MPEG-4人脸动画标准为基础,建立了汉语音节口型库和人脸基本表情库,通过在人脸动画参数上对共同影响面部运动的多种元素进行加权融合,... 为了实时合成真实感的可视语音,提出了一种融合口型、表情等多种运动元素的三维人脸动画合成方法.以MPEG-4人脸动画标准为基础,建立了汉语音节口型库和人脸基本表情库,通过在人脸动画参数上对共同影响面部运动的多种元素进行加权融合,合成出最终的动画序列.实验结果表明,该方法有效融合了面部运动的多种元素,同时具有真实感和实时性的优点. 展开更多
关键词 人脸动画 可视语音合成 表情合成 MPEG-4
在线阅读 下载PDF
面向普通用户的3D虚拟人脸动画 被引量:2
20
作者 罗常伟 江辰 +2 位作者 李睿 於俊 汪增福 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2015年第3期492-498,共7页
为合成真实感人脸动画,提出一种实时的基于单摄像头的3D虚拟人脸动画方法.首先根据用户的单张正面人脸图像重建用户的3D人脸模型,并基于该人脸模型合成姿态、光照和表情变化的人脸图像,利用这些图像训练特定用户的局部纹理模型;然后使... 为合成真实感人脸动画,提出一种实时的基于单摄像头的3D虚拟人脸动画方法.首先根据用户的单张正面人脸图像重建用户的3D人脸模型,并基于该人脸模型合成姿态、光照和表情变化的人脸图像,利用这些图像训练特定用户的局部纹理模型;然后使用摄像头拍摄人脸视频,利用特定用户的局部纹理模型跟踪人脸特征点;最后由跟踪结果和3D关键形状估计Blendshape系数,通过Blendshape模型合成的人脸动画.实验结果表明,该方法能实时合成真实感3D人脸动画,且只需要一个普通的摄像头,非常适合普通用户使用. 展开更多
关键词 人脸动画 人脸特征点跟踪 Blendshape模型 表演驱动
在线阅读 下载PDF
上一页 1 2 6 下一页 到第
使用帮助 返回顶部