期刊文献+
共找到9篇文章
< 1 >
每页显示 20 50 100
数据安全体系建设的研究及思考
1
作者 杨云龙 郭中梅 +2 位作者 张亮 孙亮 杨旭蕾 《信息通信技术与政策》 2025年第1期40-45,共6页
数据安全是国家安全的重要组成部分,不仅关乎着国家的信息主权,同时也影响着社会稳定及国际竞争力。在当前国际国内环境日益复杂的背景下,数据安全治理面临的问题也愈发严峻。重点针对数据全生命周期风险进行分析,并从技术、运营、管理... 数据安全是国家安全的重要组成部分,不仅关乎着国家的信息主权,同时也影响着社会稳定及国际竞争力。在当前国际国内环境日益复杂的背景下,数据安全治理面临的问题也愈发严峻。重点针对数据全生命周期风险进行分析,并从技术、运营、管理3方面提出了数据安全体系总体思路,帮助各参与方建立数据安全保障体系。 展开更多
关键词 数据安全 数据要素 数据风险 数据治理
在线阅读 下载PDF
可信数据空间助力数据要素高效流通 被引量:8
2
作者 杨云龙 张亮 杨旭蕾 《邮电设计技术》 2024年第2期57-61,共5页
数据要素目前已经上升到国家战略高度,而如何通过数字技术创新,在保障原始数据“可用不可见”前提下,安全可信的开展数据流通,是当下推动数据要素流通普及、普惠的重要议题。可信数据空间的建立能够有效地助力数据要素在安全、高效的环... 数据要素目前已经上升到国家战略高度,而如何通过数字技术创新,在保障原始数据“可用不可见”前提下,安全可信的开展数据流通,是当下推动数据要素流通普及、普惠的重要议题。可信数据空间的建立能够有效地助力数据要素在安全、高效的环境下发挥最大价值,重点针对可信数据空间中的关键技术及重点应用方向进行探讨分析,为进一步深入开展可信数据空间研究提供参考。 展开更多
关键词 可信数据空间 数据要素 工业数据 政务数据 健康数据 金融数据
在线阅读 下载PDF
基于真值表的函数自动生成的神经网络模型
3
作者 贺文凯 支天 +4 位作者 胡杏 张曦珊 张蕊 杜子东 郭崎 《高技术通讯》 CAS 北大核心 2024年第3期265-274,共10页
作为目前最常见的程序综合问题,示例编程通过用户提供的输入/输出示例生成程序,为编程能力不足的开发者提供了便利。近年来,示例编程已经被应用于Microsoft Office Excel办公软件的自动编程,以及勘探、测井、航空航天等领域。鉴于目前... 作为目前最常见的程序综合问题,示例编程通过用户提供的输入/输出示例生成程序,为编程能力不足的开发者提供了便利。近年来,示例编程已经被应用于Microsoft Office Excel办公软件的自动编程,以及勘探、测井、航空航天等领域。鉴于目前示例编程鲜有关于二进制流的研究,本文针对基于真值表函数自动生成问题具有函数表达式的语法符号序列中各语法符号的关系与它们的距离大小无关、函数表达式的生成语义规则与布尔向量函数采样的结果长度无关的特点,设计了一种神经网络模型和算法,在程序综合、功能等价和序列匹配的指标上分别取得了70.56%、64.66%、0.6355的结果,分别优于现有最先进的程序综合模型55.07%、49.70%、0.5690。 展开更多
关键词 真值表 神经网络 序列模型 示例编程 程序综合
在线阅读 下载PDF
基于语言类任务的概念化强化学习框架
4
作者 彭少辉 胡杏 支天 《高技术通讯》 CAS 北大核心 2024年第6期555-566,共12页
语言类强化学习任务可以促进强化学习策略的泛化性,其关键问题是自动化学习观测和语言描述的通用表示。现有方法往往隐式学习联合表示,不可避免地引入训练集中的虚假相关信息,进而损伤策略的泛化性和训练效率。针对这一问题,本文提出了... 语言类强化学习任务可以促进强化学习策略的泛化性,其关键问题是自动化学习观测和语言描述的通用表示。现有方法往往隐式学习联合表示,不可避免地引入训练集中的虚假相关信息,进而损伤策略的泛化性和训练效率。针对这一问题,本文提出了概念化强化学习框架(CRL),其利用概念化这种从实体提取相似性生成抽象表示的认知方式,通过基于注意力机制的概念编码器和限制性损失函数显式地学习概括且抽象的概念化表示作为强化学习策略的输入。本文在常用的语言条件任务和文本游戏任务上验证了CRL的有效性,结果显示概念化表示大幅提升了策略的训练效率(最多70%)和泛化性能(最多30%),并有效提升了策略的可解释性。 展开更多
关键词 深度强化学习(DRL) 语言类强化学习任务 文本游戏 表示学习 互信息优化
在线阅读 下载PDF
神威平台上AceMesh编程模型的构图优化 被引量:1
5
作者 叶雨曦 傅游 +3 位作者 梁建国 孟现粉 刘颖 花嵘 《山东科技大学学报(自然科学版)》 CAS 北大核心 2021年第4期76-85,共10页
面向高性能计算领域的多核、众核处理器飞速发展,为了降低并行编程的难度,提高并行计算效率,数据驱动的并行编程模型成为高性能计算领域的研究热点。AceMesh是数据流驱动的、支持多核和众核异构平台的任务并行编程模型,能自动发掘结构... 面向高性能计算领域的多核、众核处理器飞速发展,为了降低并行编程的难度,提高并行计算效率,数据驱动的并行编程模型成为高性能计算领域的研究热点。AceMesh是数据流驱动的、支持多核和众核异构平台的任务并行编程模型,能自动发掘结构化网格应用中存在的数据驱动的任务图并行性。但如果任务粒度划分较细,其构图过程会造成很大开销。本研究结合“申威26010”异构众核处理器的结构特点,从主、从核通信优化、内存池、无后继任务收集等方面对AceMesh构图过程进行优化,并采用航天飞行器应用中的7个热点子程序对优化效果进行测试。测试数据表明以上优化取得5倍的加速。为验证构图优化对AceMesh整体性能的提升,对航天飞行器应用分别在Acemesh和神威OpenACC的加速效果进行了测试,优化后的AceMesh加速效果约为神威OpenACC的1.5倍。 展开更多
关键词 DAG构图优化 任务并行编程模型 神威·太湖之光 申威处理器 性能
在线阅读 下载PDF
块数据在数字政府领域的应用与研究
6
作者 杨云龙 张亮 杨旭蕾 《邮电设计技术》 2022年第11期74-78,共5页
块数据与条数据最大的不同是克服了传统条数据单维度下的数据集合所带来的数据孤岛问题。大数据发展的下一阶段是块数据,块数据通过在特定平台上的关联聚合,有效解决了当前数字政府领域数据共享难、数据要素价值低、数据应用场景少等问... 块数据与条数据最大的不同是克服了传统条数据单维度下的数据集合所带来的数据孤岛问题。大数据发展的下一阶段是块数据,块数据通过在特定平台上的关联聚合,有效解决了当前数字政府领域数据共享难、数据要素价值低、数据应用场景少等问题。块数据通过对海量数据的共享、打通、融合、激活,重塑既有的经济社会体系,以块数据为基础探索数字政府领域中新的应用场景,已经成为创新大潮中的最前沿。 展开更多
关键词 条数据 块数据 数字政府 数据要素
在线阅读 下载PDF
面向知识蒸馏的自动梯度混合方法
7
作者 曹炅宣 常明 +2 位作者 张蕊 支天 张曦珊 《高技术通讯》 CAS 2023年第12期1276-1285,共10页
在知识蒸馏(KD)中,学生网络会同时受到真实数据的监督和来自教师网络的监督,因此在训练中,其损失函数包含有来自真实标签的任务损失和来自教师网络的蒸馏损失,而如何有效配置损失函数的权重至今仍是一个未解决的问题。为了克服这个问题... 在知识蒸馏(KD)中,学生网络会同时受到真实数据的监督和来自教师网络的监督,因此在训练中,其损失函数包含有来自真实标签的任务损失和来自教师网络的蒸馏损失,而如何有效配置损失函数的权重至今仍是一个未解决的问题。为了克服这个问题,本文提出了一种自动梯度混合(AGB)方法,通过搜索这2个损失的最佳混合梯度来自动有效地找到合适的损失权重。在知识蒸馏的原始设计中,蒸馏损失是用来辅助任务损失进行训练,因此本文将混合梯度的模长约束为任务损失对应梯度模长,仅仅只搜索梯度向量的方向,从而显著缩减了搜索空间。在搜索得到最佳混合梯度后,2个损失的损失权重可以被自动计算出来,从而避免了耗时的手动调节过程。本文在13种不同的师生网络组合以及10种不同的知识蒸馏方法间进行了大量的实验。结果表明,自动梯度混合方法能够在使用更少计算资源的条件下,在70%的蒸馏方法上比手动调节方法结果更优。 展开更多
关键词 深度神经网络(DNN) 知识蒸馏(KD) 超参数优化(HPO) 图像分类
在线阅读 下载PDF
针对图神经网络加速器性能评估的标准测试集
8
作者 宋新开 支天 +1 位作者 孔维浩 杜子东 《高技术通讯》 CAS 2022年第7期663-673,共11页
图神经网络(GNN)算法在图结构数据处理任务中取得了突破性的成功。然而,针对图神经网络硬件加速器设计的研究缺乏明确的设计目标和统一的评价标准。本文提出一种针对图神经网络硬件加速器性能评估的标准测试集(BenchGNN)。BenchGNN包括... 图神经网络(GNN)算法在图结构数据处理任务中取得了突破性的成功。然而,针对图神经网络硬件加速器设计的研究缺乏明确的设计目标和统一的评价标准。本文提出一种针对图神经网络硬件加速器性能评估的标准测试集(BenchGNN)。BenchGNN包括宏测试集和微测试集2部分。宏测试集包含了3种主要任务类型的图神经网络算法和5个典型应用领域的数据集。微测试集包含2种微观操作类型和4种不同量化特性的数据集。本文在现有运算设备中央处理器(CPU)、图形处理器(GPU)和图神经网络专用加速器上进行了BenchGNN的实验测试。实验结果表明,CPU由于并行度不高而无法高效处理图神经网络算法。针对图神经网络算法的随机访存行为进行优化的专用加速器取得了优于通用并行处理器GPU的性能功耗表现。根据BenchGNN的评估结果,在图神经网络加速器设计过程中需要重点考虑运算并行度和随机访存优化这两种因素。 展开更多
关键词 图神经网络(GNN) 加速器 标准测试集
在线阅读 下载PDF
Lite-IJformer:面向长序列Transformer的轻量化方法
9
作者 连家诚 郝一帆 +2 位作者 张曦珊 支天 孙广中 《高技术通讯》 2025年第2期167-174,共8页
针对面向长序列的Transformer计算复杂度高的问题,本文提出了一种Trans-former轻量化方法Lite-IJformer。其核心思路分为2步:(1)对自注意力(self-attention)进行线性化,将Transformer的计算复杂度从输入序列的平方降至线性;(2)基于低秩... 针对面向长序列的Transformer计算复杂度高的问题,本文提出了一种Trans-former轻量化方法Lite-IJformer。其核心思路分为2步:(1)对自注意力(self-attention)进行线性化,将Transformer的计算复杂度从输入序列的平方降至线性;(2)基于低秩矩阵分解理论对KV矩阵乘法进行降维,进一步减少计算规模。在长序列竞技基准测试上的实验表明,当输入长度为1000~2000时,线性化可以将self-attention计算量降低13~26倍,将Transformer的推理速度提升4.75~5.72倍而无精度损失;在经过降维后,self-attention的计算量进一步减少了17.0%,模型推理速度提升了1.17倍,精度损失在0.5%以内。 展开更多
关键词 Transformer 自注意力 线性化方法 降维
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部