期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
视觉基础模型驱动的像素级图像异常检测方法
1
作者 薛振华 李强 黄超 《计算机应用》 北大核心 2025年第3期823-831,共9页
现有的异常检测方法能在特定应用场景下实现高精度检测,然而这些方法难以适用于其他应用场景,且自动化程度有限。因此,提出一种视觉基础模型(VFM)驱动的像素级图像异常检测方法SSMOD-Net(State Space Model driven-Omni Dimensional Ne... 现有的异常检测方法能在特定应用场景下实现高精度检测,然而这些方法难以适用于其他应用场景,且自动化程度有限。因此,提出一种视觉基础模型(VFM)驱动的像素级图像异常检测方法SSMOD-Net(State Space Model driven-Omni Dimensional Net),旨在实现更精确的工业缺陷检测。与现有方法不同,SSMOD-Net实现SAM(Segment Anything Model)的自动化提示且不需要微调SAM,因此特别适用于需要处理大规模工业视觉数据的场景。SSMOD-Net的核心是一个新颖的提示编码器,该编码器由状态空间模型驱动,能够根据SAM的输入图像动态地生成提示。这一设计允许模型在保持SAM架构不变的同时,通过提示编码器引入额外的指导信息,从而提高检测精度。提示编码器内部集成一个残差多尺度模块,该模块基于状态空间模型构建,能够综合利用多尺度信息和全局信息。这一模块通过迭代搜索,在提示空间中寻找最优的提示,并将这些提示以高维张量的形式提供给SAM,从而增强模型对工业异常的识别能力。而且所提方法不需要对SAM进行任何修改,从而避免复杂的对训练计划的微调需求。在多个数据集上的实验结果表明,所提方法展现出了卓越的性能,与AutoSAM和SAM-EG(SAM with Edge Guidance framework for efficient polyp segmentation)等方法相比,所提方法在mE(mean E-measure)和平均绝对误差(MAE)、Dice和交并比(IoU)上都取得了较好的结果。 展开更多
关键词 深度学习 像素级异常检测 视觉基础模型 SAM 自动提示
在线阅读 下载PDF
结合视觉基础模型文本特征的遥感目标检测方法
2
作者 许越 吴朝明 +1 位作者 昝露洋 陈正超 《指挥与控制学报》 北大核心 2025年第3期312-318,共7页
深度学习技术极大地提高了遥感影像目标检测能力,但由于高分辨率遥感影像所涉及的地理环境复杂、地物要素混杂且动态,“同物异谱”或“异物同谱”现象造成相似地物目标被误检,或者细小地物被漏检。提出一种结合CLIP和YOLOV8的多模态高... 深度学习技术极大地提高了遥感影像目标检测能力,但由于高分辨率遥感影像所涉及的地理环境复杂、地物要素混杂且动态,“同物异谱”或“异物同谱”现象造成相似地物目标被误检,或者细小地物被漏检。提出一种结合CLIP和YOLOV8的多模态高分辨率遥感影像目标检测模型,通过引入视觉基础模型的文本信息增强对影像场景的理解。实验结果表明,与YOLOV8等模型相比,YOLO-CLIP在相似地物目标的区分中更具优势,细小目标漏检情况有较大改善,泛化性有所提升。 展开更多
关键词 遥感 目标检测 深度学习 视觉基础模型
在线阅读 下载PDF
视觉基础模型支持的老城区更新规划方法与实践 被引量:1
3
作者 梁程程 卓文淖 +1 位作者 左琛 张军飞 《规划师》 CSSCI 北大核心 2024年第4期88-97,共10页
对于具有复杂建成环境的老城区,采用人工智能技术可以提高更新规划的科学性,然而现有的目标识别方法高度依赖人工标注数据集,面临更新实践不足、分析精度受限和训练成本过高的局限。将视觉基础模型引入城市更新领域,探讨视觉基础模型支... 对于具有复杂建成环境的老城区,采用人工智能技术可以提高更新规划的科学性,然而现有的目标识别方法高度依赖人工标注数据集,面临更新实践不足、分析精度受限和训练成本过高的局限。将视觉基础模型引入城市更新领域,探讨视觉基础模型支持的老城区更新规划方法:通过等间隔采样构建图像块数据集,使用视觉基础模型提取高维视觉特征;启动余弦距离、流形学习、高斯混合模型等机器学习技术,实现图像块数据集的智能分组;对图像块进行空间转译,精准识别重点区域;结合多维要素综合评判,优化智能识别结果,指导后续更新规划实践。同时,以陕西省榆林市清涧县老城区为例,探索该技术方法在城市更新规划实践中的应用,以期为老城区的城市更新提供新的思路。 展开更多
关键词 视觉基础模型 城市更新 老城区 卫星遥感图像 陕西省榆林市清涧县
在线阅读 下载PDF
SAM及其改进模型在图像分割中的应用综述
4
作者 马依拉木·木斯得克 高雨欣 +3 位作者 张思拓 冯珂 阿布都克力木·阿布力孜 哈里旦木·阿布都克里木 《计算机工程》 北大核心 2025年第8期16-38,共23页
随着通用人工智能技术的快速发展,基础模型在多个领域的应用日益受到广泛关注。在图像分割领域,分割一切模型(SAM)作为一种核心基础模型,在提升图像理解和处理效率方面展现出了显著优势。尽管SAM在图像分割任务中表现出色,但在功耗、计... 随着通用人工智能技术的快速发展,基础模型在多个领域的应用日益受到广泛关注。在图像分割领域,分割一切模型(SAM)作为一种核心基础模型,在提升图像理解和处理效率方面展现出了显著优势。尽管SAM在图像分割任务中表现出色,但在功耗、计算效率以及在不同应用场景中的适应性等方面,仍然存在一定的优化空间。为此,从多个维度对SAM的改进方向进行了深入探索,包括提升速度与计算效率、增强模型的精度与鲁棒性、提高模型的适应性与通用性、优化提示工程设计,以及提升数据利用效率与强化迁移学习能力等方面。通过这些改进,SAM不仅能够在更复杂的任务中保持高效性能,还能更好地适应各领域和应用场景的需求。在此基础上,总结SAM在医学、遥感、机械等领域中的实际应用,展示了其在不同场景下的适用性与挑战。此外,详细介绍了图像分割领域常用的数据集和评价指标,通过实验对比分析,进一步评估了视觉Transformer(ViT)变体对SAM性能的影响,以及EfficientSAM、EfficientViT-SAM、MobileSAM和RobustSAM等改进模型的性能表现。最后,总结了SAM及其改进模型在实际应用中面临的挑战,并展望了未来的发展方向,旨在帮助科研工作者更全面地了解SAM及其变体的改进与应用,为新模型的提出提供启发。 展开更多
关键词 分割一切模型 视觉基础模型 改进模型 图像分割 通用模型
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部