期刊文献+
共找到8,484篇文章
< 1 2 250 >
每页显示 20 50 100
Data processing method for aerial testing of rotating accelerometer gravity gradiometer 被引量:1
1
作者 QIAN Xuewu TANG Hailiang 《中国惯性技术学报》 EI CSCD 北大核心 2024年第8期743-752,共10页
A novel method for noise removal from the rotating accelerometer gravity gradiometer(MAGG)is presented.It introduces a head-to-tail data expansion technique based on the zero-phase filtering principle.A scheme for det... A novel method for noise removal from the rotating accelerometer gravity gradiometer(MAGG)is presented.It introduces a head-to-tail data expansion technique based on the zero-phase filtering principle.A scheme for determining band-pass filter parameters based on signal-to-noise ratio gain,smoothness index,and cross-correlation coefficient is designed using the Chebyshev optimal consistent approximation theory.Additionally,a wavelet denoising evaluation function is constructed,with the dmey wavelet basis function identified as most effective for processing gravity gradient data.The results of hard-in-the-loop simulation and prototype experiments show that the proposed processing method has shown a 14%improvement in the measurement variance of gravity gradient signals,and the measurement accuracy has reached within 4E,compared to other commonly used methods,which verifies that the proposed method effectively removes noise from the gradient signals,improved gravity gradiometry accuracy,and has certain technical insights for high-precision airborne gravity gradiometry. 展开更多
关键词 airborne gravity gradiometer data processing band-passing filter evaluation function
在线阅读 下载PDF
Data processing of small samples based on grey distance information approach 被引量:14
2
作者 Ke Hongfa, Chen Yongguang & Liu Yi 1. Coll. of Electronic Science and Engineering, National Univ. of Defense Technology, Changsha 410073, P. R. China 2. Unit 63880, Luoyang 471003, P. R. China 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2007年第2期281-289,共9页
Data processing of small samples is an important and valuable research problem in the electronic equipment test. Because it is difficult and complex to determine the probability distribution of small samples, it is di... Data processing of small samples is an important and valuable research problem in the electronic equipment test. Because it is difficult and complex to determine the probability distribution of small samples, it is difficult to use the traditional probability theory to process the samples and assess the degree of uncertainty. Using the grey relational theory and the norm theory, the grey distance information approach, which is based on the grey distance information quantity of a sample and the average grey distance information quantity of the samples, is proposed in this article. The definitions of the grey distance information quantity of a sample and the average grey distance information quantity of the samples, with their characteristics and algorithms, are introduced. The correlative problems, including the algorithm of estimated value, the standard deviation, and the acceptance and rejection criteria of the samples and estimated results, are also proposed. Moreover, the information whitening ratio is introduced to select the weight algorithm and to compare the different samples. Several examples are given to demonstrate the application of the proposed approach. The examples show that the proposed approach, which has no demand for the probability distribution of small samples, is feasible and effective. 展开更多
关键词 data processing Grey theory Norm theory Small samples Uncertainty assessments Grey distance measure Information whitening ratio.
在线阅读 下载PDF
GF-3 data real-time processing method based on multi-satellite distributed data processing system 被引量:7
3
作者 YANG Jun CAO Yan-dong +2 位作者 SUN Guang-cai XING Meng-dao GUO Liang 《Journal of Central South University》 SCIE EI CAS CSCD 2020年第3期842-852,共11页
Due to the limited scenes that synthetic aperture radar(SAR)satellites can detect,the full-track utilization rate is not high.Because of the computing and storage limitation of one satellite,it is difficult to process... Due to the limited scenes that synthetic aperture radar(SAR)satellites can detect,the full-track utilization rate is not high.Because of the computing and storage limitation of one satellite,it is difficult to process large amounts of data of spaceborne synthetic aperture radars.It is proposed to use a new method of networked satellite data processing for improving the efficiency of data processing.A multi-satellite distributed SAR real-time processing method based on Chirp Scaling(CS)imaging algorithm is studied in this paper,and a distributed data processing system is built with field programmable gate array(FPGA)chips as the kernel.Different from the traditional CS algorithm processing,the system divides data processing into three stages.The computing tasks are reasonably allocated to different data processing units(i.e.,satellites)in each stage.The method effectively saves computing and storage resources of satellites,improves the utilization rate of a single satellite,and shortens the data processing time.Gaofen-3(GF-3)satellite SAR raw data is processed by the system,with the performance of the method verified. 展开更多
关键词 synthetic aperture radar full-track utilization rate distributed data processing CS imaging algorithm field programmable gate array Gaofen-3
在线阅读 下载PDF
SLC-index: A scalable skip list-based index for cloud data processing 被引量:2
4
作者 HE Jing YAO Shao-wen +1 位作者 CAI Li ZHOU Wei 《Journal of Central South University》 SCIE EI CAS CSCD 2018年第10期2438-2450,共13页
Due to the increasing number of cloud applications,the amount of data in the cloud shows signs of growing faster than ever before.The nature of cloud computing requires cloud data processing systems that can handle hu... Due to the increasing number of cloud applications,the amount of data in the cloud shows signs of growing faster than ever before.The nature of cloud computing requires cloud data processing systems that can handle huge volumes of data and have high performance.However,most cloud storage systems currently adopt a hash-like approach to retrieving data that only supports simple keyword-based enquiries,but lacks various forms of information search.Therefore,a scalable and efficient indexing scheme is clearly required.In this paper,we present a skip list-based cloud index,called SLC-index,which is a novel,scalable skip list-based indexing for cloud data processing.The SLC-index offers a two-layered architecture for extending indexing scope and facilitating better throughput.Dynamic load-balancing for the SLC-index is achieved by online migration of index nodes between servers.Furthermore,it is a flexible system due to its dynamic addition and removal of servers.The SLC-index is efficient for both point and range queries.Experimental results show the efficiency of the SLC-index and its usefulness as an alternative approach for cloud-suitable data structures. 展开更多
关键词 cloud computing distributed index cloud data processing skip list
在线阅读 下载PDF
Research on Seismic Data Processing and Interpretation System Model Based on CSCW
5
作者 Mingguang Diao,Tao Xue,Wenyong Pan School of Software,China University of Geosciences(Beijing),Beijing 100083,China. 《地学前缘》 EI CAS CSCD 北大核心 2009年第S1期287-287,共1页
Through analyzing the needs of seismic data processing and interpretation,a system model based on CSCW is designed.Using the technology of CSCW to build the environment of cooperative work allows the field data acquis... Through analyzing the needs of seismic data processing and interpretation,a system model based on CSCW is designed.Using the technology of CSCW to build the environment of cooperative work allows the field data acquisition to possess the functions of remote real-time guidance by experts and remote real-time processing of the data.The model overcomes the influences and barriers existing in the areas 展开更多
关键词 CSCW cooperative processING gas HYDRATE KRIGING interpolation INTERVAL velocity SEISMIC data processING
在线阅读 下载PDF
Inter-agency government information sharing under data-driven blockchain framework 被引量:1
6
作者 XIAO Jiong-en HONG Ming DING Li-ping 《控制理论与应用》 EI CAS CSCD 北大核心 2024年第8期1369-1376,共8页
The inter-agency government information sharing(IAGIS)plays an important role in improving service and efficiency of government agencies.Currently,there is still no effective and secure way for data-driven IAGIS to fu... The inter-agency government information sharing(IAGIS)plays an important role in improving service and efficiency of government agencies.Currently,there is still no effective and secure way for data-driven IAGIS to fulfill dynamic demands of information sharing between government agencies.Motivated by blockchain and data mining,a data-driven framework is proposed for IAGIS in this paper.Firstly,the blockchain is used as the core to design the whole framework for monitoring and preventing leakage and abuse of government information,in order to guarantee information security.Secondly,a four-layer architecture is designed for implementing the proposed framework.Thirdly,the classical data mining algorithms PageRank and Apriori are applied to dynamically design smart contracts for information sharing,for the purposed of flexibly adjusting the information sharing strategies according to the practical demands of government agencies for public management and public service.Finally,a case study is presented to illustrate the operation of the proposed framework. 展开更多
关键词 government data processing blockchain PAGERANK APRIORI
在线阅读 下载PDF
The full lifecycle management of scientific data at Hefei Light Source soft X-ray microscopy station
7
作者 Haishan Yu Lei Cui +4 位作者 Zhen Zhang Guang Lin Xiaokang Sun DaDi Zhang Gongfa Liu 《中国科学技术大学学报》 CSCD 北大核心 2024年第11期2-7,1,66,共8页
Hefei Light Source(HLS)is a synchrotron radiation light source that primarily produces vacuum ultraviolet and soft X-rays.It currently consists of ten experimental stations,including a soft X-ray microscopy station.As... Hefei Light Source(HLS)is a synchrotron radiation light source that primarily produces vacuum ultraviolet and soft X-rays.It currently consists of ten experimental stations,including a soft X-ray microscopy station.As part of its on-going efforts to establish a centralized scientific data management platform,HLS is in the process of developing a test sys-tem that covers the entire lifecycle of scientific data,including data generation,acquisition,processing,analysis,and de-struction.However,the instruments used in the soft X-ray microscopy experimental station rely on commercial propriet-ary software for data acquisition and processing.We developed a semi-automatic data acquisition program to facilitate the integration of soft X-ray microscopy stations into a centralized scientific data management platform.Additionally,we cre-ated an online data processing platform to assist users in analyzing their scientific data.The system we developed and de-ployed meets the design requirements,successfully integrating the soft X-ray microscopy station into the full lifecycle management of scientific data. 展开更多
关键词 Hefei Light Source soft X-ray microscopy full lifecycle data acquisition data processing scientific data
在线阅读 下载PDF
Direct data domain approach to space-time adaptive processing 被引量:2
8
作者 Wen Xiaoqin Han Chongzhao 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2006年第1期59-64,共6页
In non-homogeneous environment, traditional space-time adaptive processing doesn't effectively suppress interference and detect target, because the secondary data don' t exactly reflect the statistical characteristi... In non-homogeneous environment, traditional space-time adaptive processing doesn't effectively suppress interference and detect target, because the secondary data don' t exactly reflect the statistical characteristic of the range cell under test. A ravel methodology utilizing the direct data domain approach to space-time adaptive processing ( STAP ) in airbome radar non-homogeneous environments is presented. The deterministic least squares adaptive signal processing technique operates on a "snapshot-by-snapshot" basis to dethrone the adaptive adaptive weights for nulling interferences and estimating signal of interest (SOI). Furthermore, this approach eliminates the requirement for estimating the covariance through the data of neighboring range cell, which eliminates calculating the inverse of covariance, and can be implemented to operate in real-time. Simulation results illustrate the efficiency of interference suppression in non-homogeneous environment. 展开更多
关键词 space-time adaptive processing direct data domain interference suppression.
在线阅读 下载PDF
世界强震动数据中心发展现状与展望 被引量:2
9
作者 解全才 马强 +3 位作者 钱亮 陶冬旺 王江 娄良琼 《世界地震工程》 北大核心 2025年第1期1-13,共13页
近年来,全球主要地震多发国家加大了强震动观测台网的建设,布设的数字强震仪和烈度仪等数量显著增加,获取的强震动记录迅速增长。各国或地区建立了不同的强震动数据库、例如美国的NGA数据库、CEMSD数据库、欧洲的ESM数据库、法国IPGP数... 近年来,全球主要地震多发国家加大了强震动观测台网的建设,布设的数字强震仪和烈度仪等数量显著增加,获取的强震动记录迅速增长。各国或地区建立了不同的强震动数据库、例如美国的NGA数据库、CEMSD数据库、欧洲的ESM数据库、法国IPGP数据库、意大利ITACA数据库、日本NIED数据库和新西兰GeoNet数据库等。基于第18届世界地震工程大会(18WCEE)探索世界地震数据中心专题及相关文献,详细梳理了各个国家和地区强震动数据中心的台网建设、数据处理、数据共享及数据应用方面的研究现状;通过与国外强震动数据中心的对比分析,找出我国强震动数据中心发展存在的差距,指出我国未来需要重视的工作和深入研究解决的问题。 展开更多
关键词 18届世界地震工程大会 地震数据中心 强震动数据 数据处理 数据共享
在线阅读 下载PDF
基于轻量化网络和多域损失函数的随机噪声衰减方法 被引量:1
10
作者 陈伟 李安禹 +4 位作者 李韵竹 未晛 张庆臣 金彦 魏龙海 《天然气工业》 北大核心 2025年第4期60-69,共10页
随机噪声的存在严重影响了地震数据的质量,对地震解释和反演解析带来了严重干扰,特别是在深层油气勘探过程中有效信号相对较弱的情况下问题更为突出。为了提高地震资料信噪比,设计了具有多尺度特征提取能力的轻量化网络架构,采用并行多... 随机噪声的存在严重影响了地震数据的质量,对地震解释和反演解析带来了严重干扰,特别是在深层油气勘探过程中有效信号相对较弱的情况下问题更为突出。为了提高地震资料信噪比,设计了具有多尺度特征提取能力的轻量化网络架构,采用并行多尺度大核空洞卷积模块捕获跨尺度局部特征,结合通道—空间双注意力机制建立全局特征关联,然后构建时频域联合优化目标函数,通过自适应权重系数平衡时域均方误差与频域能量损失,在去除随机噪声的同时减少有效信号损失,最后利用数据分块训练策略,将大规模地震数据分割为可并行处理的训练样本集,提升模型泛化能力,最终形成了一种联合轻量化网络与多域损失函数来去除地震数据中随机噪声的方法。研究结果表明:①多域损失函数通过优化时域和频域内的损失值,确保了在抑制噪声的同时最大限度地保护原始信号的完整性和局部细节特征,有效提高了资料的信噪比;②与前馈去噪卷积神经网络(DnCNN)相比,提出的方法在参数量(Params)、浮点运算次数(FLOPs)和训练时长方面均有明显改进,将Params减少了约14.29%,FLOPs减少了约15%,并且训练时间缩短了约40.88%;③多尺度平行大核卷积通过并行3种尺度的空洞卷积,实现了跨尺度局部特征的协同提取,可以更好的处理复杂地震数据。结论认为,提出的新方法不仅能够有效去除地震数据中的随机噪声,而且通过优化网络结构实现了更低的计算成本和更快的训练速度,对提高地震勘探效果有着重要的实践意义。 展开更多
关键词 地震资料处理 地震数据去噪 随机噪声 深度学习 多尺度 轻量化
在线阅读 下载PDF
2020珠峰高程测量BDS-3数据质量分析 被引量:1
11
作者 杨强 党亚民 +2 位作者 蒋光伟 马新莹 孙洋洋 《导航定位学报》 北大核心 2025年第2期20-27,共8页
2020年珠峰高程测量首次以国产北斗卫星导航系统(BDS)接收机为核心装备,获取了北斗三号全球卫星导航系统(BDS-3)高精度观测数据。为了确保成果的可靠性,利用天宝(Trimble)接收机对国产接收机BDS-3观测结果进行检核。针对珠峰地形环境限... 2020年珠峰高程测量首次以国产北斗卫星导航系统(BDS)接收机为核心装备,获取了北斗三号全球卫星导航系统(BDS-3)高精度观测数据。为了确保成果的可靠性,利用天宝(Trimble)接收机对国产接收机BDS-3观测结果进行检核。针对珠峰地形环境限制导致全球卫星导航系统(GNSS)观测网形不佳、峰顶GNSS观测时间短等难题,提出三级控制策略相结合的GNSS观测网数据处理方案,通过构建地区GNSS基准网、局部GNSS控制网和峰顶联测网,在极其有限的珠峰观测时段内最大化地优化提取高质量GNSS观测数据。为了验证BDS-3观测数据的精度,对比全球定位系统(GPS)和BDS-3数据解算结果,并检核GNSS数据处理与分析软件(GPAS)/加米特(GAMIT)2种软件的BDS解算结果,结果表明,BDS-3处理结果精度与GPS成果精度相当,高程方向精度均优于2 cm,坐标差异均优于1 cm,验证了本次珠峰测高BDS-3观测成果的精度和可靠性。 展开更多
关键词 珠穆朗玛峰 数据处理 全球卫星导航系统(GNSS)控制网 高程测量 北斗三号全球卫星导航系统(BDS-3) 质量评估
在线阅读 下载PDF
公共数据污染的法律治理 被引量:2
12
作者 苏宇 《交大法学》 北大核心 2025年第2期50-63,共14页
公共数据污染不仅可能对公民、法人和其他组织的合法权益造成侵害,更有可能对数据驱动决策及其他基于数据的判断和决定造成不利影响。深入治理公共数据污染,已成为数字政府建设过程中必不可少的一项基础性工作。公共数据污染的成因包括... 公共数据污染不仅可能对公民、法人和其他组织的合法权益造成侵害,更有可能对数据驱动决策及其他基于数据的判断和决定造成不利影响。深入治理公共数据污染,已成为数字政府建设过程中必不可少的一项基础性工作。公共数据污染的成因包括记录错误、人为篡改、不当操作、外部攻击等,可能产生多阶影响。公共数据污染防治需要充实相关法理基础,确认国家机关和公共机构维护公共数据秩序的一般性任务,建立结构化的参与式治理制度框架,认可数据公权以及防治公共数据污染的一般性义务,发展基于技术性正当程序理论的“数据正当程序原则”。此种法理基础有利于建构防治公共数据污染的请求权体系,并建立以“法律3.0”方式镶嵌于技术性机制中的若干法律规则。 展开更多
关键词 公共数据 数据污染 数据公权 数据正当程序
在线阅读 下载PDF
地震数据处理中的信号建模与噪声压制方法理论探讨 被引量:1
13
作者 葛大明 项健 《石油物探》 北大核心 2025年第2期280-292,共13页
陆上地震数据的噪声主要包括来自复杂近地表的噪声、外源激发的波场、不能用于地震波成像的其它噪声,通常包括线性与非线性相干噪声、非相干噪声及随机噪声。噪声压制的基本思想是对实测数据中包含的信号或相干噪声建立预测模型,然后对... 陆上地震数据的噪声主要包括来自复杂近地表的噪声、外源激发的波场、不能用于地震波成像的其它噪声,通常包括线性与非线性相干噪声、非相干噪声及随机噪声。噪声压制的基本思想是对实测数据中包含的信号或相干噪声建立预测模型,然后对信号或相干噪声进行预测,最后压制数据中相干噪声和随机的非相干噪声。全波形反演和最小二乘逆时偏移逐渐成为高精度地震波成像的代表性方法技术,它们对噪声压制方法提出了更高的要求。因此,对当前地震数据去噪理论、方法与技术进行了分析对比,首先,提出了勘探地震数据的概念模型,即具有线性或非线性结构的信号或相干噪声叠加上满足一定概率分布的随机噪声;然后,分析针对该概念模型的各种方法技术,对于线性信号或相干噪声,采用的预测方法包括自回归模型预测器、线性Radon变换方法、K-L变换方法、Hankel矩阵方法,对于非线性(双曲)信号或相干噪声,采用的预测方法包括Radon变换方法和多项式拟合方法;最后,指出对数据中的非线性信号进行最佳建模是地震数据去噪的基础。上述方法的对比分析结果加深了数据处理人员对目前主流去噪软件模块理论基础的认识,从而进一步提升实际地震数据的处理效果。 展开更多
关键词 地震数据处理 线性及非线性地震信号及相干噪声 不相干噪声及随机噪声 信号建模 噪声压制
在线阅读 下载PDF
天津地震预警数据处理系统现状分析
14
作者 许可 郭巍 +3 位作者 谭毅培 高也 马婷 白云鹏 《地震研究》 北大核心 2025年第3期432-439,共8页
为检验天津地震预警系统的可靠性,基于2021年6月15日至2023年12月31日天津地震预警数据处理系统的JEEW和EEW产出的数据,从事件匹配率、预警时效性、首报震级偏差、首报震中偏差等方面,与京津冀地区94次地震事件的正式速报结果进行对比... 为检验天津地震预警系统的可靠性,基于2021年6月15日至2023年12月31日天津地震预警数据处理系统的JEEW和EEW产出的数据,从事件匹配率、预警时效性、首报震级偏差、首报震中偏差等方面,与京津冀地区94次地震事件的正式速报结果进行对比分析。结果表明:JEEW系统首报用时3.8~7.0 s,首报震级偏差0.1~0.7级,首报震中偏差0.6~2.6 km;EEW系统首报用时3.4~7.0 s,首报震级偏差0.0~0.8级,首报震中偏差0.6~2.6 km。综上认为,对于中国地震台网产出的京津冀地区3.0级以上正式速报的地震,天津地震预警系统可产出时效性较强、定位精度较高的结果。 展开更多
关键词 地震预警 数据处理系统 JEEW系统 EEW系统
在线阅读 下载PDF
气象大数据云平台数据处理系统设计与实现
15
作者 肖卫青 薛蕾 +7 位作者 何文春 李湘 刘振 霍庆 郭萍 王颖 韩书丽 王佳强 《应用气象学报》 北大核心 2025年第6期744-758,共15页
针对海量多源异构数据快速接入气象大数据云平台的问题,设计与研发了无缝衔接通信与存储的数据处理系统。系统设计多种可扩展处理流程无缝集成解码算法、数据接入、数据入库等业务逻辑;研发自动气象站、高空L波段探测、雨滴谱、北斗探... 针对海量多源异构数据快速接入气象大数据云平台的问题,设计与研发了无缝衔接通信与存储的数据处理系统。系统设计多种可扩展处理流程无缝集成解码算法、数据接入、数据入库等业务逻辑;研发自动气象站、高空L波段探测、雨滴谱、北斗探空、地基垂直观测产品、全球卫星云导风等200多种国内外数据的解码算法;应用流式处理将约7×104个区域气象站小时数据的服务时效由全国综合气象信息共享平台(China Integrated Meteorological Information Sharing System,CIMISS)的5 min提高到2 min;研发配置化驱动的通用处理框架,实现雷达卫星等近千种非结构化数据的配置化接入;采用同一数据多元并行处理技术,满足用户对数据的异构性访问需求。数据处理系统在2021年12月随气象大数据云平台一起在国省业务化运行,实现国内、国外地面、高空、海洋、雷达、卫星、数值模式等1300多种数据实时处理入库,日处理超过700万个文件,近10 TB数据,入库记录超过2亿条,发送超过1亿条数据信息,为气象预报预警、防灾减灾等业务和2022年北京冬奥会、2023年成都大运会及2023年杭州亚运会等重大活动提供了坚实的数据保障。 展开更多
关键词 气象大数据云平台 数据处理系统 解码算法 消息中间件 流式处理
在线阅读 下载PDF
医疗领域的大型语言模型综述 被引量:1
16
作者 肖建力 许东舟 +4 位作者 王浩 刘敏 周雷 朱林 顾松 《智能系统学报》 北大核心 2025年第3期530-547,共18页
深度学习是人工智能领域的热门研究方向之一,它通过构建多层人工神经网络模仿人脑对数据的处理机制。大型语言模型(large language model,LLM)基于深度学习的架构,在无需编程指令的情况下,能通过分析大量数据以获得理解和生成人类语言... 深度学习是人工智能领域的热门研究方向之一,它通过构建多层人工神经网络模仿人脑对数据的处理机制。大型语言模型(large language model,LLM)基于深度学习的架构,在无需编程指令的情况下,能通过分析大量数据以获得理解和生成人类语言的能力,被广泛应用于自然语言处理、计算机视觉、智慧医疗、智慧交通等诸多领域。文章总结了LLM在医疗领域的应用,涵盖了LLM针对医疗任务的基本训练流程、特殊策略以及在具体医疗场景中的应用。同时,进一步讨论了LLM在应用中面临的挑战,包括决策过程缺乏透明度、输出准确性以及隐私、伦理问题等,随后列举了相应的改进策略。最后,文章展望了LLM在医疗领域的未来发展趋势,及其对人类健康事业发展的潜在影响。 展开更多
关键词 人工智能 深度学习 TRANSFORMER 大型语言模型 智慧医疗 数据分析 图像处理 计算机视觉
在线阅读 下载PDF
时空数据查询技术研究综述 被引量:1
17
作者 孟祥福 翁雪 徐永杰 《计算机科学与探索》 北大核心 2025年第8期2001-2023,共23页
随着现代信息技术的快速发展与应用,时空数据的规模迅速增长。这些数据呈现出海量聚集、高维异构以及动态复杂等特点。近年来,以时空数据为背景的时空查询技术得到广泛的研究和应用,如何有效地存储、管理和查询这些数据成为了研究的重... 随着现代信息技术的快速发展与应用,时空数据的规模迅速增长。这些数据呈现出海量聚集、高维异构以及动态复杂等特点。近年来,以时空数据为背景的时空查询技术得到广泛的研究和应用,如何有效地存储、管理和查询这些数据成为了研究的重点。对时空数据的相关查询技术进行综述,从时空数据相关基本概念入手,系统阐述了当前主流的时空查询处理模式,涵盖了范围查询、K近邻查询、反K近邻查询等多种类型;介绍了不同的时空索引技术,包括基于轨迹的索引结构、基于抽样的索引以及其他创新的索引方法;分析了结合其他技术的查询方法,主要包括时空-文本查询、语义近似轨迹查询、并行和分布式查询等,这些技术不仅提升了时空查询的多样性和准确性,还能有效地处理大规模时空数据。展望了时空查询技术的未来发展方向,包括查询结果的可视化展示、隐私保护以及结合机器学习的新型索引结构,为时空数据的高效利用提供了新的思路和挑战。 展开更多
关键词 时空数据 查询处理 索引技术 时空-文本 语义近似 分布式
在线阅读 下载PDF
机场智能跑道系统的多源数据集成与应用
18
作者 凌建明 侯天新 +2 位作者 刘诗福 陶泽峰 李沛霖 《同济大学学报(自然科学版)》 北大核心 2025年第7期1047-1054,共8页
在现有智能跑道内涵、架构基础上,针对智能跑道数据流转难题,系统分析了智能跑道海量、多源、异构、异频的数据特征。基于此,提出了面向智能跑道的多层次数据集成原理、多平台物理构成和全过程数据流架构。结合数据高效可靠利用、分类... 在现有智能跑道内涵、架构基础上,针对智能跑道数据流转难题,系统分析了智能跑道海量、多源、异构、异频的数据特征。基于此,提出了面向智能跑道的多层次数据集成原理、多平台物理构成和全过程数据流架构。结合数据高效可靠利用、分类长效保存需求,阐述了智能跑道数据预处理、标准化处理方法,总结了智能跑道数据存储特点,并建立了对应的多级存储架构与关联存储模式。日喀则定日机场落地应用表明,在不丢失有效信息的前提下减少无效信息超过95%,完成所有数据的统一管理、多源共享,推动智能跑道性能实时评价、风险超前预警、智能维护决策等优势功能的实现。 展开更多
关键词 机场工程 智能跑道 数据集成 多源异构 数据处理 数据存储
在线阅读 下载PDF
人工智能地震资料处理与解释方法研究进展
19
作者 刘洋 孙宇航 +3 位作者 张浩然 田文彬 陈桂 马江涛 《石油地球物理勘探》 北大核心 2025年第4期1067-1087,共21页
随着油气勘探目标日益复杂,地震勘探面临着地震资料信噪比低、分辨率低、速度建模和成像困难等难题,常规地震资料处理与解释方法应用于海量地震数据时,其精度或效率存在一定的局限性。基于人工智能的地震资料处理与解释方法可以有效提... 随着油气勘探目标日益复杂,地震勘探面临着地震资料信噪比低、分辨率低、速度建模和成像困难等难题,常规地震资料处理与解释方法应用于海量地震数据时,其精度或效率存在一定的局限性。基于人工智能的地震资料处理与解释方法可以有效提高精度和效率。为此,概述了监督、半监督和无监督深度学习技术,总结了深度学习在初至拾取、提高信噪比、数据重建、速度谱解释、偏移和提高分辨率等资料处理方面的应用,在断层、地震相、河道和盐丘等地质体识别方面的应用,以及在波阻抗反演、AVO反演、全波形反演、岩性识别、储层参数预测和流体识别等方面的应用;讨论了训练集的制作、神经网络的优选、训练策略和大模型等;最后展望了地震资料智能处理与解释方法的发展趋势,指出需要继续提高网络的泛化性,需要研究适合地震勘探的大模型。 展开更多
关键词 地震资料处理 地震资料解释 人工智能 深度学习
在线阅读 下载PDF
基于MapReduce的拷贝数变异测序数据并行处理方案
20
作者 何亨 程凯莉 +1 位作者 张葵 成淑君 《计算机工程》 北大核心 2025年第5期177-187,共11页
拷贝数变异(CNV)作为一种遗传变异,广泛存在于人类基因组的基因分布中。CNV检测效率的提升不仅可以为更多的病患提供更加快速精确的CNV检测结果,大幅降低医疗成本,同时又有利于药物的研发和临床应用。基于读段深度(RD)的方法是目前最为... 拷贝数变异(CNV)作为一种遗传变异,广泛存在于人类基因组的基因分布中。CNV检测效率的提升不仅可以为更多的病患提供更加快速精确的CNV检测结果,大幅降低医疗成本,同时又有利于药物的研发和临床应用。基于读段深度(RD)的方法是目前最为常用的CNV检测方法,对RD相关信息的处理时间较长,在CNV检测中时间占比较高。现有方法无法有效应用于全基因组分析,存在计算效率较低、检测精度下降的问题。基于RD的CNV检测方法,提出一种高效的测序数据并行处理方案EPPCNV。在EPPCNV中,设计2个MapReduce作业串行执行的方法,实现高效全基因组测序数据的并行处理,精准地完成RD相关信息的提取;为充分考虑到GC含量偏差对CNV检测结果的影响,对测序数据的RDs进行校正处理,保证最终检测结果的高灵敏度与高精确度;采用独立于具体CNV检测方法的高适配性数据处理方式,其最终生成的RD相关信息能够与多种主流CNV检测方法直接结合,在不改变原方法对CNV区域判定的基础上,实现方法整体性能的大幅提升。实验结果表明,EPPCNV的综合准确率高,分别与CNV-LOF、HBOS-CNV以及CNVnator 3种方法直接结合,能够显著提升原方法的计算效率,并保证检测结果的高灵敏度与高精确度。对于覆盖深度越高、数据量越大的测序数据,CNV检测方法与EPPCNV结合后计算效率的提升更为显著。 展开更多
关键词 拷贝数变异检测 MapReduce作业 测序数据处理 读段深度 全基因组
在线阅读 下载PDF
上一页 1 2 250 下一页 到第
使用帮助 返回顶部