期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于单目RGB图像的三维手部姿态估计方法
1
作者
杨冰
徐楚阳
+1 位作者
姚金良
向学勤
《浙江大学学报(工学版)》
北大核心
2025年第1期18-26,共9页
现有的三维手部姿态估计方法大多基于Transformer技术,未充分利用高分辨率下的局部空间信息,为此提出基于改进FastMETRO的三维手部姿态估计方法.引入可变形注意力机制,使得编码器的设计不再受限于图像特征序列长度;引入交错更新多尺度...
现有的三维手部姿态估计方法大多基于Transformer技术,未充分利用高分辨率下的局部空间信息,为此提出基于改进FastMETRO的三维手部姿态估计方法.引入可变形注意力机制,使得编码器的设计不再受限于图像特征序列长度;引入交错更新多尺度特征编码器来融合多尺度特征,强化生成手部姿态;引入图卷积残差模块来挖掘网格顶点间的显式语义联系.为了验证所提方法的有效性,在数据集FreiHAND、HO3D V2和HO3D V3上开展训练及评估实验.结果表明,所提方法的回归精度优于现有先进方法,在FreiHAND、HO3D V2、HO3D V3上的普鲁克对齐-平均关节点误差分别为5.8、10.0、10.5 mm.
展开更多
关键词
三维手部姿态估计
TRANSFORMER
可变形注意力机制
交错更新多尺度特征编码器
神经网络
在线阅读
下载PDF
职称材料
基于单阶段生成对抗网络的文本生成图像方法
2
作者
杨冰
那巍
向学勤
《浙江大学学报(工学版)》
EI
CAS
CSCD
北大核心
2023年第12期2412-2420,共9页
为了提高生成图像质量,提出新的文本生成图像方法,整体框架采用单阶段文本生成图像主干.在原有模型只使用句子信息生成图像的基础上,使用注意力机制把单词信息融入图像特征,采用合理地融入更多文本信息的方式提高生成图像的质量.引入对...
为了提高生成图像质量,提出新的文本生成图像方法,整体框架采用单阶段文本生成图像主干.在原有模型只使用句子信息生成图像的基础上,使用注意力机制把单词信息融入图像特征,采用合理地融入更多文本信息的方式提高生成图像的质量.引入对比损失,使相同语义图像之间更加接近,不同语义图像之间更加疏远,从而更好地保证文本与生成图像之间的语义一致性.在生成器中采用动态卷积来增强生成器的表达能力.实验结果表明,所提方法在数据集CUB(Fréchet inception distance(FID)从12.10提升到10.36)和数据集COCO(FID从15.41提升到12.74)上都获得了较好的性能提升.
展开更多
关键词
文本生成图像
注意力机制
对比损失
语义一致性
动态卷积
在线阅读
下载PDF
职称材料
题名
基于单目RGB图像的三维手部姿态估计方法
1
作者
杨冰
徐楚阳
姚金良
向学勤
机构
杭州电子科技大学
计算
机
学院
杭州电子科技大学浙江省脑机协同智能重点实验室
杭州
灵伴
科技
有限公司
出处
《浙江大学学报(工学版)》
北大核心
2025年第1期18-26,共9页
基金
浙江省基础公益研究计划(LGG22F020027).
文摘
现有的三维手部姿态估计方法大多基于Transformer技术,未充分利用高分辨率下的局部空间信息,为此提出基于改进FastMETRO的三维手部姿态估计方法.引入可变形注意力机制,使得编码器的设计不再受限于图像特征序列长度;引入交错更新多尺度特征编码器来融合多尺度特征,强化生成手部姿态;引入图卷积残差模块来挖掘网格顶点间的显式语义联系.为了验证所提方法的有效性,在数据集FreiHAND、HO3D V2和HO3D V3上开展训练及评估实验.结果表明,所提方法的回归精度优于现有先进方法,在FreiHAND、HO3D V2、HO3D V3上的普鲁克对齐-平均关节点误差分别为5.8、10.0、10.5 mm.
关键词
三维手部姿态估计
TRANSFORMER
可变形注意力机制
交错更新多尺度特征编码器
神经网络
Keywords
3D hand poses estimation
Transformer
deformable attention
interleaved update multi-scale feature encoder
neural network
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于单阶段生成对抗网络的文本生成图像方法
2
作者
杨冰
那巍
向学勤
机构
杭州电子科技大学
计算
机
学院
杭州电子科技大学浙江省脑机协同智能重点实验室
杭州
灵伴
科技
有限公司
出处
《浙江大学学报(工学版)》
EI
CAS
CSCD
北大核心
2023年第12期2412-2420,共9页
基金
浙江省基础公益研究计划(LGG22F020027)
国家自然科学基金资助项目(61633010,U1909202)。
文摘
为了提高生成图像质量,提出新的文本生成图像方法,整体框架采用单阶段文本生成图像主干.在原有模型只使用句子信息生成图像的基础上,使用注意力机制把单词信息融入图像特征,采用合理地融入更多文本信息的方式提高生成图像的质量.引入对比损失,使相同语义图像之间更加接近,不同语义图像之间更加疏远,从而更好地保证文本与生成图像之间的语义一致性.在生成器中采用动态卷积来增强生成器的表达能力.实验结果表明,所提方法在数据集CUB(Fréchet inception distance(FID)从12.10提升到10.36)和数据集COCO(FID从15.41提升到12.74)上都获得了较好的性能提升.
关键词
文本生成图像
注意力机制
对比损失
语义一致性
动态卷积
Keywords
text-to-image generation
attention mechanism
contrastive loss
semantics consistency
dynamic convolution
分类号
TP393 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于单目RGB图像的三维手部姿态估计方法
杨冰
徐楚阳
姚金良
向学勤
《浙江大学学报(工学版)》
北大核心
2025
0
在线阅读
下载PDF
职称材料
2
基于单阶段生成对抗网络的文本生成图像方法
杨冰
那巍
向学勤
《浙江大学学报(工学版)》
EI
CAS
CSCD
北大核心
2023
0
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部