期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
VR环境下基于多观测角度人眼成像特性的注视估计研究 被引量:1
1
作者 牛锐 房丰洲 +2 位作者 任仲贺 侯高峰 李子豪 《现代电子技术》 北大核心 2024年第23期1-7,共7页
在虚拟现实(VR)的沉浸式场景中,基于先进的注视估计技术实现精确的注视点渲染,能够优化计算资源分配效率、缓解用户体验过程中可能产生的眩晕感。目前,可用的VR环境下的注视估计数据集只有单观测角度眼睛图像,缺乏不同观测角度的眼部图... 在虚拟现实(VR)的沉浸式场景中,基于先进的注视估计技术实现精确的注视点渲染,能够优化计算资源分配效率、缓解用户体验过程中可能产生的眩晕感。目前,可用的VR环境下的注视估计数据集只有单观测角度眼睛图像,缺乏不同观测角度的眼部图像数据集。文中构建了一个包含23 040张多观测角度眼睛图像的注视估计数据集与一个包含15 824张带有瞳孔标注的多观测角度眼睛图像的瞳孔检测数据集,并提出了一种结合多观测角度眼睛图像特征以相互补偿的多分支网络模型。将注视估计数据集样本用于模型的训练过程,预测欧氏距离损失可以达到7.68像素。进一步,将包含瞳孔位置信息的权重地图与图像融合,瞳孔位置信息的融合输入增强了模型的性能,欧氏距离损失降低到7.45像素。这项研究表明,所开发的模型能够提升VR环境下的注视估计精度,从而推动注视估计技术在VR产品中的广泛应用。 展开更多
关键词 注视估计 虚拟现实 卷积神经网络 多分支网络 特征融合 瞳孔检测
在线阅读 下载PDF
基于坐标注意力脉冲神经网络的注视估计方法
2
作者 王红霞 赵志国 《计量学报》 CSCD 北大核心 2024年第7期982-988,共7页
针对传统相机在拍摄人眼运动时易产生动态模糊、时间分辨率低等问题,采用事件相机近眼拍摄构建Spiking-Eye数据集,并提出一种坐标注意力的脉冲神经网络模型(CA-SpikingRepVGG)。模型读取编码后的事件数据,经过带坐标注意力的主干网络进... 针对传统相机在拍摄人眼运动时易产生动态模糊、时间分辨率低等问题,采用事件相机近眼拍摄构建Spiking-Eye数据集,并提出一种坐标注意力的脉冲神经网络模型(CA-SpikingRepVGG)。模型读取编码后的事件数据,经过带坐标注意力的主干网络进行特征提取,最后馈入检测头进行检测。实验结果显示:CA-SpikingRepVGG的平均检测精确率R_(P)达到了70.8%,与SpikingVGG-16比较,该模型的R_(P)提高了15.9%,召回率R_(r)提高了14.2%;仅需SpikingDensenet模型1/3的训练时间,比其R_(P)提高1.8%、R_(r)提高0.9%。结果表明:该模型在针对眼球运动这一场景下对人眼的检测追踪能力更强,可以很好地完成注视估计任务。 展开更多
关键词 机器视觉 目标检测 脉冲神经网络 注视估计 坐标注意力 召回率 事件相机
在线阅读 下载PDF
基于多尺度聚合和共享注意力的注视估计模型
3
作者 施赛龙 方智文 《计算机应用》 CSCD 北大核心 2024年第7期2047-2054,共8页
注视估计是从人脸图像中估计3D注视方向的方法,其中与注视直接相关的眼睛细节信息在人脸图像中集中且对注视估计具有显著影响。然而现有的注视估计模型忽略了小尺度的眼睛细节,且容易被图像特征中与注视无关的信息淹没。为此,提出一种... 注视估计是从人脸图像中估计3D注视方向的方法,其中与注视直接相关的眼睛细节信息在人脸图像中集中且对注视估计具有显著影响。然而现有的注视估计模型忽略了小尺度的眼睛细节,且容易被图像特征中与注视无关的信息淹没。为此,提出一种基于多尺度聚合和共享注意力的模型以增强特征的表达能力。首先,使用分流自注意力聚合图像中不同尺度的眼睛和人脸信息,并引导模型学习不同尺度对象之间的相关性,以此处理模型对图像中眼睛细节的遗漏问题;其次,通过建立共享注意力来捕获图像之间的共享特征,减少对注视无关特征的关注;最后,结合多尺度聚合和共享注意力,进一步提高注视估计的精度。在公开数据集MPIIFaceGaze、Gaze360、Gaze360_Processed和GAFA-Head上,所提模型的平均角度误差比GazeTR(Gaze TRansformer)降低了5.74%、4.09%、4.82%和10.55%。在Gaze360背对相机的困难图像上,所提模型的平均角度误差比GazeTR降低了4.70%。实验结果表明,所提模型能有效聚合多尺度的注视信息和共享注意力,提高注视估计的准确性和鲁棒性。 展开更多
关键词 注视估计 共享注意力 多尺度聚合 共享特征 计算机视觉
在线阅读 下载PDF
基于标记点检测的视线跟踪注视点估计
4
作者 龚秀锋 李斌 +1 位作者 邓宏平 张文聪 《计算机工程》 CAS CSCD 北大核心 2011年第6期289-290,共2页
传统的头戴式视线跟踪系统需要借助额外的头部位置跟踪器或其他辅助设备才能定位视线方向。针对该问题,提出一种基于标记点检测的注视点估计方法。该方法通过计算机视觉的方法检测标记点,建立场景图像与真实场景中计算机屏幕之间的空间... 传统的头戴式视线跟踪系统需要借助额外的头部位置跟踪器或其他辅助设备才能定位视线方向。针对该问题,提出一种基于标记点检测的注视点估计方法。该方法通过计算机视觉的方法检测标记点,建立场景图像与真实场景中计算机屏幕之间的空间关系,将场景图像中的注视点坐标映射到计算机屏幕中。实验结果表明,该方法简单易行,可以较好地估计出用户在真实场景中的注视点坐标。 展开更多
关键词 视线跟踪 注视估计 头戴式视线跟踪系统 标记点检测
在线阅读 下载PDF
一种面向空间机械臂目标定位的注视点估计方法
5
作者 曲思霖 王从庆 展文豪 《载人航天》 CSCD 北大核心 2022年第4期534-542,共9页
针对虚拟环境下空间目标定位问题,提出了一种空间机械臂目标定位的注视点估计方法。首先,建立了一个注视点估计数据集,采集9名22-25岁受试者在24寸电脑屏幕144个注视点的人脸图像;然后,对数据集中图像进行预处理,截取左、右眼部分,提取... 针对虚拟环境下空间目标定位问题,提出了一种空间机械臂目标定位的注视点估计方法。首先,建立了一个注视点估计数据集,采集9名22-25岁受试者在24寸电脑屏幕144个注视点的人脸图像;然后,对数据集中图像进行预处理,截取左、右眼部分,提取图像的均衡化直方图作为特征,设计了一种多流卷积网络对注视点进行估计,144个注视点分类准确率达到87.447%;最后,在虚拟环境下的空间机械臂人机交互仿真平台上,利用视角转换和注视点估计方法估计空间目标三维位置,反解空间机械臂关节角,仿真模拟空间机械臂抓取注视目标。仿真实验表明,提出的注视点估计方法可以正确定位空间目标位置,缩小空间机械臂末端与空间目标的距离,完成抓取空间目标的任务。 展开更多
关键词 注视估计 卷积神经网络 目标定位 可视化仿真
在线阅读 下载PDF
基于AlphaPose模型的远距离行人头部姿态估计算法 被引量:2
6
作者 赵思源 彭春蕾 +2 位作者 张云 刘海涛 胡瑞敏 《陕西科技大学学报》 北大核心 2023年第2期191-198,共8页
在公共场所的监控视频中,远距离的行人目标头部区域占比往往较小并且头部区域分辨率较低,仅靠目标检测算法和头部姿态估计模型检测并分类头部特征来判定头部姿态或注视方向存在较大难度.考虑到目前不同分辨率下的人体骨骼关键点估计算... 在公共场所的监控视频中,远距离的行人目标头部区域占比往往较小并且头部区域分辨率较低,仅靠目标检测算法和头部姿态估计模型检测并分类头部特征来判定头部姿态或注视方向存在较大难度.考虑到目前不同分辨率下的人体骨骼关键点估计算法越来越成熟,本研究提出一种利用骨骼关键点和头部姿态之间的关系来进行远距离行人的头部姿态估计算法.该算法首先利用AlphaPose模型检测出二维人体骨骼关键点的全局坐标值,然后根据部分骨骼关键点的坐标值计算出头部朝向象限角度,最后根据预设角度范围计算并可视化出视线落点.目前,尚没有公开发布的可用于远距离行人头部姿态估计的数据集,因此本文建立了一个远距离行人头部姿态系统,以对现有的数据集进行标注,并利用标注的数据集对提出的方法进行测试.结果表明,本文提出的算法可以较精准地判定到远距离行人的头部姿态和注视方向,准确率达到69.7%. 展开更多
关键词 远距离行人头部姿态估计 注视方向估计 人体骨骼关键点检测
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部