期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
MIFNet:基于多尺度输入与特征融合的胃癌病理图像分割方法
被引量:
9
1
作者
张泽中
高敬阳
赵地
《计算机应用》
CSCD
北大核心
2019年第S02期107-113,共7页
针对人工判别胃癌病理图像对专业知识要求较高且费时费力的问题,提出一种基于深度学习的分割算法对胃癌病理图像的病变区域进行自动分割,为病理医生的工作提供更有依据的诊断指导。在已有的U-Net模型基础上,提出一种基于多尺度输入与特...
针对人工判别胃癌病理图像对专业知识要求较高且费时费力的问题,提出一种基于深度学习的分割算法对胃癌病理图像的病变区域进行自动分割,为病理医生的工作提供更有依据的诊断指导。在已有的U-Net模型基础上,提出一种基于多尺度输入与特征融合的多输入融合网络(MIFNet)模型,通过对不同输入尺度特征进行自动提取和融合以实现对胃癌病理图像中病变区域的自动分割。多尺度输入数据能够帮助模型更有针对性地捕捉图像的局部和全局特征,特征融合策略能够兼顾模型对全局特征与局部特征的关注。在中国大数据人工智能创新创业大赛的"病理切片识别AI挑战赛"数据集上的实验结果显示,MIFNet在测试中的dice系数达到了81.87%,比U-Net和SegNet等模型提高了10%以上,模型的参数规模也大大下降。所以说,MIFNet模型在提高分割的准确度以及节省计算资源等方面都取得了更好的效果。
展开更多
关键词
多输入融合网络
多尺度
输入
特征
融合
胃癌病理图像
图像分割
在线阅读
下载PDF
职称材料
题名
MIFNet:基于多尺度输入与特征融合的胃癌病理图像分割方法
被引量:
9
1
作者
张泽中
高敬阳
赵地
机构
北京化工大学信息科学与技术学院
中国科学院计算技术研究所
出处
《计算机应用》
CSCD
北大核心
2019年第S02期107-113,共7页
基金
国家重点研发计划项目(SQ2017ZX106047)
北京市自然科学基金资助项目(5182018)
+1 种基金
北京市自然科学基金重点项目(4161004)
北京市科技计划项目(Z171100000117001,Z161100000216143)
文摘
针对人工判别胃癌病理图像对专业知识要求较高且费时费力的问题,提出一种基于深度学习的分割算法对胃癌病理图像的病变区域进行自动分割,为病理医生的工作提供更有依据的诊断指导。在已有的U-Net模型基础上,提出一种基于多尺度输入与特征融合的多输入融合网络(MIFNet)模型,通过对不同输入尺度特征进行自动提取和融合以实现对胃癌病理图像中病变区域的自动分割。多尺度输入数据能够帮助模型更有针对性地捕捉图像的局部和全局特征,特征融合策略能够兼顾模型对全局特征与局部特征的关注。在中国大数据人工智能创新创业大赛的"病理切片识别AI挑战赛"数据集上的实验结果显示,MIFNet在测试中的dice系数达到了81.87%,比U-Net和SegNet等模型提高了10%以上,模型的参数规模也大大下降。所以说,MIFNet模型在提高分割的准确度以及节省计算资源等方面都取得了更好的效果。
关键词
多输入融合网络
多尺度
输入
特征
融合
胃癌病理图像
图像分割
Keywords
Multi-Input-Fusion Net(MIFNet)
multi-scale input
feature fusion
stomach cancer pathology image
image segmentation
分类号
TP3 [自动化与计算机技术—计算机科学与技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
MIFNet:基于多尺度输入与特征融合的胃癌病理图像分割方法
张泽中
高敬阳
赵地
《计算机应用》
CSCD
北大核心
2019
9
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部