针对现有的类案检索(LCR)方法缺乏对案情要素的有效利用而容易被案例内容的语义结构相似性误导的问题,提出一种融合时序行为链与事件类型的类案检索方法。首先,采取序列标注的方法识别案情描述中的法律事件类型,并利用案例文本中的行为...针对现有的类案检索(LCR)方法缺乏对案情要素的有效利用而容易被案例内容的语义结构相似性误导的问题,提出一种融合时序行为链与事件类型的类案检索方法。首先,采取序列标注的方法识别案情描述中的法律事件类型,并利用案例文本中的行为要素构建时序行为链,以突出案情的关键要素,从而使模型聚焦于案例的核心内容,进而解决现有方法易被案例内容的语义结构相似性误导的问题;其次,利用分段编码构造时序行为链的相似性向量表征矩阵,从而增强案例间行为要素的语义交互;最后,通过聚合评分器,从时序行为链、法律事件类型、犯罪类型这3个角度衡量案例的相关性,从而增加案例匹配得分的合理性。实验结果表明,相较于SAILER(Structure-Aware pre-traIned language model for LEgal case Retrieval)方法,所提方法在LeCaRD(Legal Case Retrieval Dataset)上的P@5值提升了4个百分点、P@10值提升了3个百分点、MAP值提升了4个百分点,而NDCG@30值提升了0.8个百分点。可见,该方法能有效利用案情要素来避免案例内容的语义结构相似性的干扰,并能为类案检索提供可靠的依据。展开更多
针对知识推理模型在捕获实体之间的复杂语义特征方面难以捕捉多层次语义信息,同时未考虑单一路径的可解释性对正确答案的影响权重不同等问题,提出一种融合路径与子图特征的知识图谱(KG)多跳推理模型PSHAM(Hierarchical Attention Model ...针对知识推理模型在捕获实体之间的复杂语义特征方面难以捕捉多层次语义信息,同时未考虑单一路径的可解释性对正确答案的影响权重不同等问题,提出一种融合路径与子图特征的知识图谱(KG)多跳推理模型PSHAM(Hierarchical Attention Model fusing Path-Subgraph features)。PS-HAM将实体邻域信息与连接路径信息进行融合,并针对不同路径探索多粒度的特征。首先,使用路径级特征提取模块提取每个实体对之间的连接路径,并采用分层注意力机制捕获不同粒度的信息,且将这些信息作为路径级的表示;其次,使用子图特征提取模块通过关系图卷积网络(RGCN)聚合实体的邻域信息;最后,使用路径-子图特征融合模块对路径级与子图级特征向量进行融合,以实现融合推理。在两个公开数据集上进行实验的结果表明,PS-HAM在指标平均倒数秩(MRR)和Hit@k(k=1,3,10)上的性能均存在有效提升。对于指标MRR,与MemoryPath模型相比,PS-HAM在FB15k-237和WN18RR数据集上分别提升了1.5和1.2个百分点。同时,对子图跳数进行的参数验证的结果表明,PS-HAM在两个数据集上都在子图跳数在3时推理效果达到最佳。展开更多
基于PatchMatch的多视图立体(MVS)方法依据输入多幅图像估计场景的深度,目前已应用于大规模场景三维重建。然而,由于特征匹配不稳定、仅依赖光度一致性不可靠等原因,现有方法在弱纹理区域的深度估计准确性和完整性较低。针对上述问题,...基于PatchMatch的多视图立体(MVS)方法依据输入多幅图像估计场景的深度,目前已应用于大规模场景三维重建。然而,由于特征匹配不稳定、仅依赖光度一致性不可靠等原因,现有方法在弱纹理区域的深度估计准确性和完整性较低。针对上述问题,提出一种基于四叉树先验辅助的MVS方法。首先,利用图像像素值获得局部纹理;其次,基于自适应棋盘网格采样的块匹配多视图立体视觉方法(ACMH)获得粗略的深度图,结合弱纹理区域中的结构信息,采用四叉树分割生成先验平面假设;再次,融合上述信息,设计一种新的多视图匹配代价函数,引导弱纹理区域得到最优深度假设,进而提高立体匹配的准确性;最后,在ETH3D、Tanks and Temples和中国科学院古建筑数据集上与多种现有的传统MVS方法进行对比实验。结果表明所提方法性能更优,特别是在ETH3D测试数据集中,当误差阈值为2 cm时,相较于当前先进的多尺度平面先验辅助方法(ACMMP),它的F1分数和完整性分别提高了1.29和2.38个百分点。展开更多
随着人工智能的发展,深度神经网络成为多种模式识别任务中必不可少的工具,由于深度卷积神经网络(CNN)参数量巨大、计算复杂度高,将它部署到计算资源和存储空间受限的边缘计算设备上成为一项挑战。因此,深度网络压缩成为近年来的研究热...随着人工智能的发展,深度神经网络成为多种模式识别任务中必不可少的工具,由于深度卷积神经网络(CNN)参数量巨大、计算复杂度高,将它部署到计算资源和存储空间受限的边缘计算设备上成为一项挑战。因此,深度网络压缩成为近年来的研究热点。低秩分解与向量量化是深度网络压缩中重要的两个研究分支,其核心思想都是通过找到原网络结构的一种紧凑型表达,从而降低网络参数的冗余程度。通过建立联合压缩框架,提出一种基于低秩分解和向量量化的深度网络压缩方法——可量化的张量分解(QTD)。该方法能够在网络低秩结构的基础上实现进一步的量化,从而得到更大的压缩比。在CIFAR-10数据集上对经典ResNet和该方法进行验证的实验结果表明,QTD能够在准确率仅损失1.71个百分点的情况下,将网络参数量压缩至原来的1%。而在大型数据集ImageNet上把所提方法与基于量化的方法PQF(Permute,Quantize,and Fine-tune)、基于低秩分解的方法TDNR(Tucker Decomposition with Nonlinear Response)和基于剪枝的方法CLIP-Q(Compression Learning by In-parallel Pruning-Quantization)进行比较与分析的实验结果表明,QTD能够在相同压缩范围下实现更好的分类准确率。展开更多
医学图像配准模型旨在建立图像间解剖位置的对应关系。传统的图像配准方法通过不断迭代获取形变场,耗费时间长且精度不高。深度神经网络不仅实现了端到端的形变场生成,加快了形变场的生成,而且进一步提升了图像配准的精度。针对目前的...医学图像配准模型旨在建立图像间解剖位置的对应关系。传统的图像配准方法通过不断迭代获取形变场,耗费时间长且精度不高。深度神经网络不仅实现了端到端的形变场生成,加快了形变场的生成,而且进一步提升了图像配准的精度。针对目前的深度学习配准模型均采用单一的卷积神经网络(CNN)或Transformer架构,无法充分发挥CNN与Transformer结合的优势导致配准精度不足,以及图像配准后无法有效保持原始拓扑结构等问题,提出一种基于CNN与Transformer并行的医学图像配准模型PPCTNet(Parallel Processing of CNN and Transformer Network)。首先,选用目前配准精度优秀的Swin Transformer和极轻量化的CNN——LOCV-Net(Lightweight attenti On-based Con Volutional Network)构建模型;其次,设计融合策略充分融合Swin Transformer与LOCV-Net提取的特征信息,使模型不仅拥有CNN的局部特征提取能力和Transformer的长距离依赖能力,还兼具轻量化的优势;最后,基于脑部磁共振成像(MRI)数据集,比较PPCTNet与10种经典图像配准模型。结果表明,相较于目前优秀的配准模型Trans Morph(hybrid Transformer-Conv Net network for image registration),PPCTNet的最高配准精度提高了0.5个百分点,且形变场的折叠率下降了1.56个百分点,维持了配准图像的拓扑结构。此外,PPCTNet的参数量比Trans Morph下降了10.39×10^(6),计算量下降了278×10^(9),体现了PPCTNet的轻量化优势。展开更多
针对历史轨迹加噪发布干扰轨迹时数据集的冗余问题和轨迹形状相似带来的隐私泄露风险,提出轨迹数据先约简后泛化再进行差分隐私加噪的基于改进萤火虫群优化求解的干扰轨迹发布保护机制(IGSO-SDTP)。首先,基于位置显著点约简历史轨迹数据...针对历史轨迹加噪发布干扰轨迹时数据集的冗余问题和轨迹形状相似带来的隐私泄露风险,提出轨迹数据先约简后泛化再进行差分隐私加噪的基于改进萤火虫群优化求解的干扰轨迹发布保护机制(IGSO-SDTP)。首先,基于位置显著点约简历史轨迹数据集;其次,结合k⁃匿名和差分隐私对简化后的轨迹数据集分别进行泛化和加噪;最后,设计了兼顾距离误差和轨迹相似性的加权距离,并以加权距离为评价指标,基于改进萤火虫群优化(IGSO)算法求解加权距离小的干扰轨迹。在多个数据集上的实验结果表明,与RD(Differential privacy for Raw trajectory data)、SDTP(Trajectory Protection of Simplification and Differential privacy)、LIC(Linear Index Clustering algorithm)、DPKTS(Differential Privacy based on K-means Trajectory shape Similarity)相比,IGSO-SDTP方法得到的加权距离分别降低了21.94%、9.15%、14.25%、10.55%,说明所提方法发布的干扰轨迹可用性和稳定性更好。展开更多
信息检索(IR)是一种通过特定的技术和方法组织、处理信息,以满足用户的信息需求的过程。近年来,基于预训练模型的稠密检索方法取得了巨大的成功;然而,这些方法只利用了文本和词语的向量表征计算查询与文档相关度,忽略了它们短语层面间...信息检索(IR)是一种通过特定的技术和方法组织、处理信息,以满足用户的信息需求的过程。近年来,基于预训练模型的稠密检索方法取得了巨大的成功;然而,这些方法只利用了文本和词语的向量表征计算查询与文档相关度,忽略了它们短语层面间的语义信息。针对该问题,提出一种名为MSIR(Multi-Scale IR)的IR方法。所提方法通过融合查询与文档中多种不同粒度的语义信息提高IR性能。首先,构建查询和文档中词语、短语和文本这3个粒度的语义单元;其次,利用预训练模型对这3个语义单元分别进行编码获得它们的语义表征;最后,利用语义表征计算查询和文档相关度。在Corvid-19、TREC2019和Robust04这3个不同大小的经典数据集上进行了对比实验。与ColBERT(ranking model based on Contextualized late interaction over BERT(Bidirectional Encoder Representation from Transformers))相比,MSIR在Robust04数据集的P@10、P@20、NDCG@10和NDCG@20指标上均实现了约8%的提升,同时在Corvid-19和TREC2019数据集上也取得了一定的改进。实验结果表明,MSIR能够成功融合多种语义粒度,提升检索精度。展开更多
文摘针对现有的类案检索(LCR)方法缺乏对案情要素的有效利用而容易被案例内容的语义结构相似性误导的问题,提出一种融合时序行为链与事件类型的类案检索方法。首先,采取序列标注的方法识别案情描述中的法律事件类型,并利用案例文本中的行为要素构建时序行为链,以突出案情的关键要素,从而使模型聚焦于案例的核心内容,进而解决现有方法易被案例内容的语义结构相似性误导的问题;其次,利用分段编码构造时序行为链的相似性向量表征矩阵,从而增强案例间行为要素的语义交互;最后,通过聚合评分器,从时序行为链、法律事件类型、犯罪类型这3个角度衡量案例的相关性,从而增加案例匹配得分的合理性。实验结果表明,相较于SAILER(Structure-Aware pre-traIned language model for LEgal case Retrieval)方法,所提方法在LeCaRD(Legal Case Retrieval Dataset)上的P@5值提升了4个百分点、P@10值提升了3个百分点、MAP值提升了4个百分点,而NDCG@30值提升了0.8个百分点。可见,该方法能有效利用案情要素来避免案例内容的语义结构相似性的干扰,并能为类案检索提供可靠的依据。
文摘基于PatchMatch的多视图立体(MVS)方法依据输入多幅图像估计场景的深度,目前已应用于大规模场景三维重建。然而,由于特征匹配不稳定、仅依赖光度一致性不可靠等原因,现有方法在弱纹理区域的深度估计准确性和完整性较低。针对上述问题,提出一种基于四叉树先验辅助的MVS方法。首先,利用图像像素值获得局部纹理;其次,基于自适应棋盘网格采样的块匹配多视图立体视觉方法(ACMH)获得粗略的深度图,结合弱纹理区域中的结构信息,采用四叉树分割生成先验平面假设;再次,融合上述信息,设计一种新的多视图匹配代价函数,引导弱纹理区域得到最优深度假设,进而提高立体匹配的准确性;最后,在ETH3D、Tanks and Temples和中国科学院古建筑数据集上与多种现有的传统MVS方法进行对比实验。结果表明所提方法性能更优,特别是在ETH3D测试数据集中,当误差阈值为2 cm时,相较于当前先进的多尺度平面先验辅助方法(ACMMP),它的F1分数和完整性分别提高了1.29和2.38个百分点。
文摘随着人工智能的发展,深度神经网络成为多种模式识别任务中必不可少的工具,由于深度卷积神经网络(CNN)参数量巨大、计算复杂度高,将它部署到计算资源和存储空间受限的边缘计算设备上成为一项挑战。因此,深度网络压缩成为近年来的研究热点。低秩分解与向量量化是深度网络压缩中重要的两个研究分支,其核心思想都是通过找到原网络结构的一种紧凑型表达,从而降低网络参数的冗余程度。通过建立联合压缩框架,提出一种基于低秩分解和向量量化的深度网络压缩方法——可量化的张量分解(QTD)。该方法能够在网络低秩结构的基础上实现进一步的量化,从而得到更大的压缩比。在CIFAR-10数据集上对经典ResNet和该方法进行验证的实验结果表明,QTD能够在准确率仅损失1.71个百分点的情况下,将网络参数量压缩至原来的1%。而在大型数据集ImageNet上把所提方法与基于量化的方法PQF(Permute,Quantize,and Fine-tune)、基于低秩分解的方法TDNR(Tucker Decomposition with Nonlinear Response)和基于剪枝的方法CLIP-Q(Compression Learning by In-parallel Pruning-Quantization)进行比较与分析的实验结果表明,QTD能够在相同压缩范围下实现更好的分类准确率。
文摘医学图像配准模型旨在建立图像间解剖位置的对应关系。传统的图像配准方法通过不断迭代获取形变场,耗费时间长且精度不高。深度神经网络不仅实现了端到端的形变场生成,加快了形变场的生成,而且进一步提升了图像配准的精度。针对目前的深度学习配准模型均采用单一的卷积神经网络(CNN)或Transformer架构,无法充分发挥CNN与Transformer结合的优势导致配准精度不足,以及图像配准后无法有效保持原始拓扑结构等问题,提出一种基于CNN与Transformer并行的医学图像配准模型PPCTNet(Parallel Processing of CNN and Transformer Network)。首先,选用目前配准精度优秀的Swin Transformer和极轻量化的CNN——LOCV-Net(Lightweight attenti On-based Con Volutional Network)构建模型;其次,设计融合策略充分融合Swin Transformer与LOCV-Net提取的特征信息,使模型不仅拥有CNN的局部特征提取能力和Transformer的长距离依赖能力,还兼具轻量化的优势;最后,基于脑部磁共振成像(MRI)数据集,比较PPCTNet与10种经典图像配准模型。结果表明,相较于目前优秀的配准模型Trans Morph(hybrid Transformer-Conv Net network for image registration),PPCTNet的最高配准精度提高了0.5个百分点,且形变场的折叠率下降了1.56个百分点,维持了配准图像的拓扑结构。此外,PPCTNet的参数量比Trans Morph下降了10.39×10^(6),计算量下降了278×10^(9),体现了PPCTNet的轻量化优势。
文摘针对历史轨迹加噪发布干扰轨迹时数据集的冗余问题和轨迹形状相似带来的隐私泄露风险,提出轨迹数据先约简后泛化再进行差分隐私加噪的基于改进萤火虫群优化求解的干扰轨迹发布保护机制(IGSO-SDTP)。首先,基于位置显著点约简历史轨迹数据集;其次,结合k⁃匿名和差分隐私对简化后的轨迹数据集分别进行泛化和加噪;最后,设计了兼顾距离误差和轨迹相似性的加权距离,并以加权距离为评价指标,基于改进萤火虫群优化(IGSO)算法求解加权距离小的干扰轨迹。在多个数据集上的实验结果表明,与RD(Differential privacy for Raw trajectory data)、SDTP(Trajectory Protection of Simplification and Differential privacy)、LIC(Linear Index Clustering algorithm)、DPKTS(Differential Privacy based on K-means Trajectory shape Similarity)相比,IGSO-SDTP方法得到的加权距离分别降低了21.94%、9.15%、14.25%、10.55%,说明所提方法发布的干扰轨迹可用性和稳定性更好。
文摘信息检索(IR)是一种通过特定的技术和方法组织、处理信息,以满足用户的信息需求的过程。近年来,基于预训练模型的稠密检索方法取得了巨大的成功;然而,这些方法只利用了文本和词语的向量表征计算查询与文档相关度,忽略了它们短语层面间的语义信息。针对该问题,提出一种名为MSIR(Multi-Scale IR)的IR方法。所提方法通过融合查询与文档中多种不同粒度的语义信息提高IR性能。首先,构建查询和文档中词语、短语和文本这3个粒度的语义单元;其次,利用预训练模型对这3个语义单元分别进行编码获得它们的语义表征;最后,利用语义表征计算查询和文档相关度。在Corvid-19、TREC2019和Robust04这3个不同大小的经典数据集上进行了对比实验。与ColBERT(ranking model based on Contextualized late interaction over BERT(Bidirectional Encoder Representation from Transformers))相比,MSIR在Robust04数据集的P@10、P@20、NDCG@10和NDCG@20指标上均实现了约8%的提升,同时在Corvid-19和TREC2019数据集上也取得了一定的改进。实验结果表明,MSIR能够成功融合多种语义粒度,提升检索精度。