期刊文献+
共找到79,190篇文章
< 1 2 250 >
每页显示 20 50 100
FedCLCC:A personalized federated learning algorithm for edge cloud collaboration based on contrastive learning and conditional computing
1
作者 Kangning Yin Xinhui Ji +1 位作者 Yan Wang Zhiguo Wang 《Defence Technology(防务技术)》 2025年第1期80-93,共14页
Federated learning(FL)is a distributed machine learning paradigm for edge cloud computing.FL can facilitate data-driven decision-making in tactical scenarios,effectively addressing both data volume and infrastructure ... Federated learning(FL)is a distributed machine learning paradigm for edge cloud computing.FL can facilitate data-driven decision-making in tactical scenarios,effectively addressing both data volume and infrastructure challenges in edge environments.However,the diversity of clients in edge cloud computing presents significant challenges for FL.Personalized federated learning(pFL)received considerable attention in recent years.One example of pFL involves exploiting the global and local information in the local model.Current pFL algorithms experience limitations such as slow convergence speed,catastrophic forgetting,and poor performance in complex tasks,which still have significant shortcomings compared to the centralized learning.To achieve high pFL performance,we propose FedCLCC:Federated Contrastive Learning and Conditional Computing.The core of FedCLCC is the use of contrastive learning and conditional computing.Contrastive learning determines the feature representation similarity to adjust the local model.Conditional computing separates the global and local information and feeds it to their corresponding heads for global and local handling.Our comprehensive experiments demonstrate that FedCLCC outperforms other state-of-the-art FL algorithms. 展开更多
关键词 Federated learning Statistical heterogeneity Personalized model Conditional computing Contrastive learning
在线阅读 下载PDF
Physical-layer secure hybrid task scheduling and resource management for fog computing IoT networks
2
作者 ZHANG Shibo GAO Hongyuan +1 位作者 SU Yumeng SUN Rongchen 《Journal of Systems Engineering and Electronics》 2025年第5期1146-1160,共15页
Fog computing has emerged as an important technology which can improve the performance of computation-intensive and latency-critical communication networks.Nevertheless,the fog computing Internet-of-Things(IoT)systems... Fog computing has emerged as an important technology which can improve the performance of computation-intensive and latency-critical communication networks.Nevertheless,the fog computing Internet-of-Things(IoT)systems are susceptible to malicious eavesdropping attacks during the information transmission,and this issue has not been adequately addressed.In this paper,we propose a physical-layer secure fog computing IoT system model,which is able to improve the physical layer security of fog computing IoT networks against the malicious eavesdropping of multiple eavesdroppers.The secrecy rate of the proposed model is analyzed,and the quantum galaxy–based search algorithm(QGSA)is proposed to solve the hybrid task scheduling and resource management problem of the network.The computational complexity and convergence of the proposed algorithm are analyzed.Simulation results validate the efficiency of the proposed model and reveal the influence of various environmental parameters on fog computing IoT networks.Moreover,the simulation results demonstrate that the proposed hybrid task scheduling and resource management scheme can effectively enhance secrecy performance across different communication scenarios. 展开更多
关键词 fog computing Internet-of-Things(IoT) physical layer security hybrid task scheduling and resource management quantum galaxy-based search algorithm(QGSA)
在线阅读 下载PDF
Dynamic access task scheduling of LEO constellation based on space-based distributed computing
3
作者 LIU Wei JIN Yifeng +2 位作者 ZHANG Lei GAO Zihe TAO Ying 《Journal of Systems Engineering and Electronics》 SCIE CSCD 2024年第4期842-854,共13页
A dynamic multi-beam resource allocation algorithm for large low Earth orbit(LEO)constellation based on on-board distributed computing is proposed in this paper.The allocation is a combinatorial optimization process u... A dynamic multi-beam resource allocation algorithm for large low Earth orbit(LEO)constellation based on on-board distributed computing is proposed in this paper.The allocation is a combinatorial optimization process under a series of complex constraints,which is important for enhancing the matching between resources and requirements.A complex algorithm is not available because that the LEO on-board resources is limi-ted.The proposed genetic algorithm(GA)based on two-dimen-sional individual model and uncorrelated single paternal inheri-tance method is designed to support distributed computation to enhance the feasibility of on-board application.A distributed system composed of eight embedded devices is built to verify the algorithm.A typical scenario is built in the system to evalu-ate the resource allocation process,algorithm mathematical model,trigger strategy,and distributed computation architec-ture.According to the simulation and measurement results,the proposed algorithm can provide an allocation result for more than 1500 tasks in 14 s and the success rate is more than 91%in a typical scene.The response time is decreased by 40%com-pared with the conditional GA. 展开更多
关键词 beam resource allocation distributed computing low Earth obbit(LEO)constellation spacecraft access task scheduling
在线阅读 下载PDF
Real-Time Monitoring Method for Cow Rumination Behavior Based on Edge Computing and Improved MobileNet v3
4
作者 ZHANG Yu LI Xiangting +4 位作者 SUN Yalin XUE Aidi ZHANG Yi JIANG Hailong SHEN Weizheng 《智慧农业(中英文)》 CSCD 2024年第4期29-41,共13页
[Objective]Real-time monitoring of cow ruminant behavior is of paramount importance for promptly obtaining relevant information about cow health and predicting cow diseases.Currently,various strategies have been propo... [Objective]Real-time monitoring of cow ruminant behavior is of paramount importance for promptly obtaining relevant information about cow health and predicting cow diseases.Currently,various strategies have been proposed for monitoring cow ruminant behavior,including video surveillance,sound recognition,and sensor monitoring methods.How‐ever,the application of edge device gives rise to the issue of inadequate real-time performance.To reduce the volume of data transmission and cloud computing workload while achieving real-time monitoring of dairy cow rumination behavior,a real-time monitoring method was proposed for cow ruminant behavior based on edge computing.[Methods]Autono‐mously designed edge devices were utilized to collect and process six-axis acceleration signals from cows in real-time.Based on these six-axis data,two distinct strategies,federated edge intelligence and split edge intelligence,were investigat‐ed for the real-time recognition of cow ruminant behavior.Focused on the real-time recognition method for cow ruminant behavior leveraging federated edge intelligence,the CA-MobileNet v3 network was proposed by enhancing the MobileNet v3 network with a collaborative attention mechanism.Additionally,a federated edge intelligence model was designed uti‐lizing the CA-MobileNet v3 network and the FedAvg federated aggregation algorithm.In the study on split edge intelli‐gence,a split edge intelligence model named MobileNet-LSTM was designed by integrating the MobileNet v3 network with a fusion collaborative attention mechanism and the Bi-LSTM network.[Results and Discussions]Through compara‐tive experiments with MobileNet v3 and MobileNet-LSTM,the federated edge intelligence model based on CA-Mo‐bileNet v3 achieved an average Precision rate,Recall rate,F1-Score,Specificity,and Accuracy of 97.1%,97.9%,97.5%,98.3%,and 98.2%,respectively,yielding the best recognition performance.[Conclusions]It is provided a real-time and effective method for monitoring cow ruminant behavior,and the proposed federated edge intelligence model can be ap‐plied in practical settings. 展开更多
关键词 cow rumination behavior real-time monitoring edge computing improved MobileNet v3 edge intelligence model Bi-LSTM
在线阅读 下载PDF
气象格点数算一体空间分析库的设计与实现 被引量:2
5
作者 王舒 徐拥军 +6 位作者 何文春 吴焕萍 高峰 刘媛媛 刘北 吕冠儒 倪学磊 《应用气象学报》 北大核心 2025年第1期121-128,共8页
气象格点数据通常以文件形式存储在分布式文件库中,业务系统在使用过程中需要将文件下载到本地,对文件解析后再进行分析计算。这种方式导致数据检索困难、响应时间长、无法满足业务在线计算及交互式应用需求。为此,2022年底国家气象信... 气象格点数据通常以文件形式存储在分布式文件库中,业务系统在使用过程中需要将文件下载到本地,对文件解析后再进行分析计算。这种方式导致数据检索困难、响应时间长、无法满足业务在线计算及交互式应用需求。为此,2022年底国家气象信息中心基于天擎空间分析库研发完成了分布式环境下气象格点数据与计算集成的数算一体数据库——Post Grid,该数据库包含数据层和算子层。数据层将气象格点数据在要素、起报、预报、空间、层次、样本等维度上的拆分后统一规范化存储,提高数据库的数据读取和分析效率。算子层通过数据库中的SQL函数实现,支持在数据库内部对格点数据进行各种操作,且算子支持分布式并行计算。性能测试和业务应用结果表明:Post Grid数据库能将传统的聚合计算服务时效由分钟级提升至毫秒级,极大提高了气象格点数据服务的性能、灵活性和数算一体能力,具有广泛应用价值。 展开更多
关键词 数算一体 气象格点数据 Post Grid 并行计算 分布式
在线阅读 下载PDF
算法时代的法治之路:计算法学的规范性探索 被引量:6
6
作者 李学尧 刘庄 《交大法学》 北大核心 2025年第1期86-100,共15页
本文借助法律形式主义与法律现实主义的两分范式,探讨了计算法学在法律与人工智能研究中的历史起源、理论进展与未来方向,并结合法律形式主义与法律现实主义的双重路径,系统分析了其在理论与实践中的挑战与潜力。通过回溯莱布尼茨的法... 本文借助法律形式主义与法律现实主义的两分范式,探讨了计算法学在法律与人工智能研究中的历史起源、理论进展与未来方向,并结合法律形式主义与法律现实主义的双重路径,系统分析了其在理论与实践中的挑战与潜力。通过回溯莱布尼茨的法学梦想,本文提出,尽管计算法学在消解法律不确定性方面取得显著成效,但“法律奇点论”等极端形式主义思潮仍存在理论与实践的盲点。计算法学不仅需要在规则与预测之间寻求平衡,还应通过融合认知神经科学等跨学科方法,加强其介入法律解释与规范辩论的科学性和可操作性。本文主张一种超越技术决定论的“计算法治”框架,强调法律应在“计算性”与“人性”之间找到动态平衡,从而确保技术进步与社会价值的良性互动。 展开更多
关键词 计算法学 莱布尼茨 法律奇点 计算神经科学 法律与人工智能
在线阅读 下载PDF
数算融合网络技术发展研究 被引量:1
7
作者 刘韵洁 汪硕 +1 位作者 黄韬 王佳森 《中国工程科学》 北大核心 2025年第1期1-13,共13页
数算融合网络是为数据空间应用定制网络服务的智能通信网络基础设施,对推动数据空间构建、数据要素流通、算力和数据融合具有促进作用,可为数据确权、流通和交易等新的经济增长点提供技术支撑。本文在介绍数算融合网络内涵的基础上,概... 数算融合网络是为数据空间应用定制网络服务的智能通信网络基础设施,对推动数据空间构建、数据要素流通、算力和数据融合具有促进作用,可为数据确权、流通和交易等新的经济增长点提供技术支撑。本文在介绍数算融合网络内涵的基础上,概述了其数据平面、控制平面、编排层具备的关键功能,梳理了我国发展数算融合网络的宏观发展需求,详细讨论了数算融合网络技术的发展现状和国际态势。进一步研判了数算融合网络端侧、数据中心内、数据中心出口、数据中心间、算力中心间、数据和算力中心间、控制层、编排层、安全体系等方面的关键技术,列举了数算融合网络的应用场景和具体案例,包括“东数西算”枢纽互联、城市算力网、工业外网互联、能源设施互联、行业大模型。在分析我国数算融合网络技术发展面临的挑战后,研究建议:构建支撑行业大模型高质量发展的公用专网;推动数算融合网络科学装置建设,服务国家科学发展;依托数算融合网络,推动数据空间成果落地;开展大规模算力协作,突破单点算力不足瓶颈,为数据空间网络基础设施发展提供参考。 展开更多
关键词 数算融合网络 数据空间 智能联网 算力网 数算融合关键技术
在线阅读 下载PDF
计算机模拟手术结合3D打印技术在复杂骨折手术中的应用进展 被引量:5
8
作者 杨立宇 郭文娟 +2 位作者 叶飞 张一奇 巴根 《中国医科大学学报》 北大核心 2025年第2期167-170,177,共5页
以计算机辅助设计为基础的3D打印技术能够快速制作三维立体模型,清晰显示骨折部位的解剖结构、类型和破裂程度,为了解骨折情况提供全方位的视觉化手段。该技术还能帮助医生设计个性化的植入物,选择定制的手术导向板和固定螺丝。手术医... 以计算机辅助设计为基础的3D打印技术能够快速制作三维立体模型,清晰显示骨折部位的解剖结构、类型和破裂程度,为了解骨折情况提供全方位的视觉化手段。该技术还能帮助医生设计个性化的植入物,选择定制的手术导向板和固定螺丝。手术医生通过术前模拟操作,对手术方案进行优化,提高手术的准确性和效果。本文总结了计算机模拟手术结合3D打印技术在多种骨科手术中的应用情况,并广泛阐述了3D打印技术在临床骨科领域的巨大应用潜力。 展开更多
关键词 计算机辅助设计 3D打印 复杂骨折
在线阅读 下载PDF
基于资源匹配的边缘异构集群在线任务调度 被引量:1
9
作者 陈俊 王欣 +1 位作者 曾浩 覃剑 《现代电子技术》 北大核心 2025年第6期31-38,共8页
随着移动互联网的发展,终端业务对时延和算力的要求越来越高,采用异构处理器构建边缘集群成为解决通用芯片算力不足的可行方案。然而现有的任务调度研究往往只考虑CPU、内存等通用计算资源,缺少对异构计算技术与边缘计算相融合场景的考... 随着移动互联网的发展,终端业务对时延和算力的要求越来越高,采用异构处理器构建边缘集群成为解决通用芯片算力不足的可行方案。然而现有的任务调度研究往往只考虑CPU、内存等通用计算资源,缺少对异构计算技术与边缘计算相融合场景的考虑。针对边缘侧的异构在线任务调度问题,结合时延和负载均衡两个指标,提出一个异构资源匹配度的概念,建立一种算力、需求和匹配度模型,并基于此设计一个在线任务调度算法。仿真实验结果表明,对比现有算法,所提算法在不增加计算复杂度和时延的前提下,有效提升了集群负载均衡,减少了资源碎片,提高了边缘侧处理性能。 展开更多
关键词 边缘计算 异构集群 任务调度 资源匹配 负载均衡 异构计算
在线阅读 下载PDF
面向DAG任务的分布式智能计算卸载和服务缓存联合优化 被引量:1
10
作者 李云 南子煜 +2 位作者 姚枝秀 夏士超 鲜永菊 《中山大学学报(自然科学版)(中英文)》 CAS 北大核心 2025年第1期71-82,共12页
建立了一种有向无环图(DAG,directed acyclic graph)任务卸载和资源优化问题,旨在应用最大可容忍时延等约束实现系统能耗最小化。考虑到网络中计算请求高度动态、完整的系统状态信息难以获取等因素,最后使用多智能体深度确定性策略梯度(... 建立了一种有向无环图(DAG,directed acyclic graph)任务卸载和资源优化问题,旨在应用最大可容忍时延等约束实现系统能耗最小化。考虑到网络中计算请求高度动态、完整的系统状态信息难以获取等因素,最后使用多智能体深度确定性策略梯度(MADDPG,multi-agent deep deterministic policy gradient)算法来探寻最优的策略。相比于现有的任务卸载算法,MADDPG算法能够降低14.2%至40.8%的系统平均能耗,并且本地缓存命中率提高3.7%至4.1%。 展开更多
关键词 移动边缘计算 多智能体深度强化学习 计算卸载 资源分配 服务缓存
在线阅读 下载PDF
群体智能视角下的高等生物仿生计算:问题分析与综合评述 被引量:1
11
作者 肖人彬 邬博文 +1 位作者 赵嘉 陈峙臻 《复杂系统与复杂性科学》 北大核心 2025年第1期1-10,共10页
以高等生物为关注点,从涵盖群智能和众智能的群体智能整体视角,对仿生计算中存在的问题进行分析并展开综合性评述,提出并阐释若干新的观点和见解。在对高等生物(涉及基本高等生物、常规高等生物和类人高等生物)仿生计算研究进展进行概... 以高等生物为关注点,从涵盖群智能和众智能的群体智能整体视角,对仿生计算中存在的问题进行分析并展开综合性评述,提出并阐释若干新的观点和见解。在对高等生物(涉及基本高等生物、常规高等生物和类人高等生物)仿生计算研究进展进行概要论述的基础上,针对群智能优化中以“动物园算法”为标志的造算法之风,发现研究中出现的回流现象,从仿生-计算维度和问题-方法维度对造算法之风的形成原因给予合理解读。进而给出解决问题的整体思路,提炼形成群体智能仿生计算的两个主要发展方向,强调仿生行为向合作行为方向的拓展在群体智能仿生计算发展方向上处于主导地位;针对群智能优化研究存在的困难,提出需要重点发力实现突破的5个瓶颈问题;基于“隐喻式仿生计算-规范仿生计算-复杂仿生计算”的整体视图,倡导复杂仿生计算的智能计算新范式,为高等生物仿生计算引领方向。 展开更多
关键词 群体智能 仿生计算 合作行为 灵长类 动物园算法 智能计算范式
在线阅读 下载PDF
双能CT增强扫描联合肿瘤标记物对Ⅰ期卵巢癌的诊断价值 被引量:1
12
作者 李烨 刘爱连 +3 位作者 宋庆玲 郝丽 魏巍 刘义军 《中国临床医学影像杂志》 北大核心 2025年第6期421-425,436,共6页
目的:探讨双能CT增强扫描联合肿瘤标记物对Ⅰ期卵巢癌(OC)的诊断价值。方法:回顾性分析行双能CT增强三期扫描的168例OC患者(Ⅰ期:50例;非Ⅰ期:Ⅱ~Ⅳ期118例)的影像资料及肿瘤标记物(CA125、CA199和HE4)。两观察者分别测量和计算病灶实... 目的:探讨双能CT增强扫描联合肿瘤标记物对Ⅰ期卵巢癌(OC)的诊断价值。方法:回顾性分析行双能CT增强三期扫描的168例OC患者(Ⅰ期:50例;非Ⅰ期:Ⅱ~Ⅳ期118例)的影像资料及肿瘤标记物(CA125、CA199和HE4)。两观察者分别测量和计算病灶实性成分增强三期40~70 keV单能量(间隔10 keV)CT值、碘浓度(IC)及标准化碘浓度(NIC)。采用组内相关系数(ICC)检验两位观察者测量数据间一致性;采用独立样本t检验或Mann-Whitney U检验比较两组参数的差异。用Logistics回归分析建立Ⅰ期OC的联合模型。采用ROC曲线评估模型及各独立风险因素的诊断效能,用DeLong检验比较其AUC间差异,用混淆矩阵比较其敏感度、特异度间差异。结果:两观察者测量数据间一致性良好(ICC>0.75)。Ⅰ期OC患者的CA125、HE4及三期单能量CT值、IC、NIC低于非Ⅰ期OC患者(P<0.05)。联合模型(动脉期NIC+HE4)的AUC(0.875)高于独立风险因素HE4、动脉期NIC的AUC(0.792、0.824),P<0.05。联合模型敏感度高于HE4,特异度高于动脉期NIC,P<0.05。结论:双能CT增强扫描碘定量值联合HE4是术前识别Ⅰ期OC的有效方法。 展开更多
关键词 卵巢肿瘤 体层摄影术 X线计算机
在线阅读 下载PDF
小型无人机视觉传感器避障方法综述 被引量:5
13
作者 王家亮 董楷 +2 位作者 顾兆军 陈辉 韩强 《西安电子科技大学学报》 北大核心 2025年第1期60-79,共20页
无人机自主飞行避障技术是无人机安全飞行和应用中最为基础和关键的技术,也是当前无人机领域的研究热点。随着深度学习在计算机视觉方向的应用,以及事件相机等视觉传感器技术的迅速发展与不断完善,基于视觉传感器的无人机自主飞行避障... 无人机自主飞行避障技术是无人机安全飞行和应用中最为基础和关键的技术,也是当前无人机领域的研究热点。随着深度学习在计算机视觉方向的应用,以及事件相机等视觉传感器技术的迅速发展与不断完善,基于视觉传感器的无人机自主飞行避障方法取得一定的进步,但目前有些研究方法在复杂场景下仍存在很大的挑战以及存在一些列亟待解决的问题,在精准性、实时性以及算法鲁棒性方面仍有改进空间。首先介绍无人机避障的相关概念及问题难点;然后将基于视觉传感器的避障算法根据采用的硬件及技术手段,具体划分为传统避障方法、基于深度学习避障方法、基于处理事件流的避障方法、基于传感器融合避障方法,和基于视觉避障的决策层避障方法,并分别介绍每类避障方法相关研究进展与研究成果,以及分析各类避障方法的优缺点;最后总结现有无人机避障算法存在的问题,并对未来研究工作进行展望。 展开更多
关键词 无人机 避障传感器 计算机视觉 事件相机
在线阅读 下载PDF
技术革命周期与我国算力竞争战略选择——基于DeepSeek复杂经济系统的思考 被引量:5
14
作者 黄晓野 代栓平 李克 《工业技术经济》 北大核心 2025年第4期25-31,共7页
算力是信息化、数字化、智能化时代的新质生产力,是大国博弈利器。算力竞争战略选择关乎一国能否抓住新技术新产业革命机遇,实现综合国力跃迁式增长。以技术-经济范式模型为理论依据,结合全球人工智能发展实践,本文提出我国目前处于算... 算力是信息化、数字化、智能化时代的新质生产力,是大国博弈利器。算力竞争战略选择关乎一国能否抓住新技术新产业革命机遇,实现综合国力跃迁式增长。以技术-经济范式模型为理论依据,结合全球人工智能发展实践,本文提出我国目前处于算力技术革命从导入期过渡到展开期的关键节点,算力发展战略重点应从算力基础设施转移至算力经济领域。高质量算力经济通过整体配置社会资源引领我国进入算力技术革命展开期,充分释放算力市场潜力。以DeepSeek为代表的自主可控产业链、创新性创业主体、经济生态赋能、经济逻辑引导技术创新、因地制宜发展中国式算力经济的复杂算力经济系统,为算力经济高质量发展提供了示范效应。伴随算力市场的扩张,需要提前完善算力市场机制并拓展市场功能。本文认为,应关注“杰文斯悖论(Jevons Paradox)”前瞻性布局与高质量算力经济匹配的算力设施建设;积极完善研发引领长期盈利的竞争机制,以集成创新驱动算力经济,推动完善价值共创机制,壮大算力商品市场和匹配市场。 展开更多
关键词 算力 技术革命周期 算力经济 竞争战略 DeepSeek 复杂经济系统 杰文斯悖论 新质生产力
在线阅读 下载PDF
基于FPGA的MobileNetV1目标检测加速器设计 被引量:3
15
作者 严飞 郑绪文 +2 位作者 孟川 李楚 刘银萍 《现代电子技术》 北大核心 2025年第1期151-156,共6页
卷积神经网络是目标检测中的常用算法,但由于卷积神经网络参数量和计算量巨大导致检测速度慢、功耗高,且难以部署到硬件平台,故文中提出一种采用CPU与FPGA融合结构实现MobileNetV1目标检测加速的应用方法。首先,通过设置宽度超参数和分... 卷积神经网络是目标检测中的常用算法,但由于卷积神经网络参数量和计算量巨大导致检测速度慢、功耗高,且难以部署到硬件平台,故文中提出一种采用CPU与FPGA融合结构实现MobileNetV1目标检测加速的应用方法。首先,通过设置宽度超参数和分辨率超参数以及网络参数定点化来减少网络模型的参数量和计算量;其次,对卷积层和批量归一化层进行融合,减少网络复杂性,提升网络计算速度;然后,设计一种八通道核间并行卷积计算引擎,每个通道利用行缓存乘法和加法树结构实现卷积运算;最后,利用FPGA并行计算和流水线结构,通过对此八通道卷积计算引擎合理的复用完成三种不同类型的卷积计算,减少硬件资源使用量、降低功耗。实验结果表明,该设计可以对MobileNetV1目标检测进行硬件加速,帧率可达56.7 f/s,功耗仅为0.603 W。 展开更多
关键词 卷积神经网络 目标检测 FPGA MobileNetV1 并行计算 硬件加速
在线阅读 下载PDF
面向地震预警场景的千万量级预警信息推送服务研究 被引量:1
16
作者 郭凯 刘杰 +3 位作者 方毅 董霖 刘佳鹏 侯建民 《中国地震》 北大核心 2025年第2期339-353,共15页
面向地震预警场景中震中区域海量人口及时获得预警信息的减灾需求,解决目前每秒约数十万级别的信息推送能力瓶颈,研究了一种海量预警信息高并发分层级联广播和区域定向推送技术,实现亚秒级千万量级预警信息的推送能力。为验证方法性能,... 面向地震预警场景中震中区域海量人口及时获得预警信息的减灾需求,解决目前每秒约数十万级别的信息推送能力瓶颈,研究了一种海量预警信息高并发分层级联广播和区域定向推送技术,实现亚秒级千万量级预警信息的推送能力。为验证方法性能,采用95台高性能服务器搭建预警信息多层级联发布平台,其中45台高性能服务器模拟一千万用户进行实验。通过在CM端采用CPU核心绑定以及Zookeeper集群管理等技术,提升单服务器推送性能和集群线性增加的稳定性,在不考虑实际网络延时的情况下具备了秒级千万量级预警信息推送能力,一千万条预警信息整体推送延时在500ms以内,达到了秒级推送一千万条预警信息的性能要求,并通过区域定向推送实际环境检验进一步验证了系统推送能力。 展开更多
关键词 级联广播 定向广播 边缘计算
在线阅读 下载PDF
基于计算着色器的并行Delaunay三角剖分算法 被引量:1
17
作者 陈国军 李震烁 陈昊祯 《图学学报》 北大核心 2025年第1期159-169,共11页
Delaunay三角剖分是一种经典的计算几何算法,在众多领域中有着广泛地使用,随着实际需求的不断提高,现有的Delaunay三角剖分算法已不能满足大规模数据的需求,为此,提出了一种基于计算着色器的并行Delaunay三角剖分方法,该方法通过纹理缓... Delaunay三角剖分是一种经典的计算几何算法,在众多领域中有着广泛地使用,随着实际需求的不断提高,现有的Delaunay三角剖分算法已不能满足大规模数据的需求,为此,提出了一种基于计算着色器的并行Delaunay三角剖分方法,该方法通过纹理缓存将点集数据输入到计算着色器中,并利用计算着色器加速Delaunay三角剖分,同时在现有方法的基础上提出动态插入法解决点集在离散空间中的重映射问题。此外,为了能够让显存有限的GPU构建出远超其显存限制的Delaunay三角网,提出基于计算着色器的分区双向扫描算法,并将点集划分为多个子区域,然后通过扫描各个子区域的方式进行构网。实验结果表明:在相同运行环境下,基于计算着色器的方法与现有的方法相比缩短了构网时间。同时分区双向扫描算法很好地解决了GPU的显存瓶颈问题,能让显存有限的GPU构建出远超其显存容量的Delaunay三角网。 展开更多
关键词 DELAUNAY三角剖分 计算着色器 GPU 并行计算 VORONOI图
在线阅读 下载PDF
深度学习全模型迭代算法(AIIR)临床应用价值 被引量:3
18
作者 洪楠 《中国医学影像技术》 北大核心 2025年第4期513-514,共2页
深度学习全模型迭代算法(AIIR)创新性地将全模型迭代与深度学习技术相结合,以弥补传统CT重建方法在噪声伪影抑制及纹理表现等方面的局限而提高图像质量;其用于低剂量成像及复杂解剖结构成像表现不俗,可为患者安全及精准诊断提供有力保... 深度学习全模型迭代算法(AIIR)创新性地将全模型迭代与深度学习技术相结合,以弥补传统CT重建方法在噪声伪影抑制及纹理表现等方面的局限而提高图像质量;其用于低剂量成像及复杂解剖结构成像表现不俗,可为患者安全及精准诊断提供有力保障。本文针对AIIR临床应用价值进行述评。 展开更多
关键词 体层摄影术 X线计算机 图像处理 计算机辅助 深度学习 辐射剂量 图像质量
在线阅读 下载PDF
从皮格马利翁效应到自我的镜视:人机交互中的情感投射与误认 被引量:2
19
作者 徐强 《南京师大学报(社会科学版)》 北大核心 2025年第2期15-25,共11页
数字技术的发展催生了人机交互关系的形成,情感关系是人机交互关系的重要维度。数字复生和AI聊天伴侣从不同侧面满足了人们的情感需求,但又容易在自我的欲望投射下形成过度期待的皮格马利翁效应,带来自我镜视化的情感误认,从而落入情感... 数字技术的发展催生了人机交互关系的形成,情感关系是人机交互关系的重要维度。数字复生和AI聊天伴侣从不同侧面满足了人们的情感需求,但又容易在自我的欲望投射下形成过度期待的皮格马利翁效应,带来自我镜视化的情感误认,从而落入情感陷阱,造成情感依赖。人机交互关系是一种“它异关系”,而非“他者关系”,个体需要认清两者之间的边界,正视自己的情感,通过社会性建构,回归真实自我,才能建立起良性互动的人机交互关系。 展开更多
关键词 人机交互 皮格马利翁效应 自我镜视
在线阅读 下载PDF
基于改进型YOLOv5算法的IN718镍基合金激光熔覆孔隙高精度检测及其控制方法 被引量:1
20
作者 盛杰 王勇 +6 位作者 徐天翊 林相奇 孟宪凯 周建忠 陈峰 李果 黄舒 《中国表面工程》 北大核心 2025年第3期139-151,共13页
为了提升激光熔覆损伤修复件中孔隙的检测精度,以调整激光熔覆工艺参数,从而减少熔覆层气孔、开裂等缺陷,提升激光熔覆层质量,开展IN718镍基合金不同工艺参数下的激光熔覆试验,并开发一种改进型SP-YOLOv5孔隙检测算法。在输入层与卷积... 为了提升激光熔覆损伤修复件中孔隙的检测精度,以调整激光熔覆工艺参数,从而减少熔覆层气孔、开裂等缺陷,提升激光熔覆层质量,开展IN718镍基合金不同工艺参数下的激光熔覆试验,并开发一种改进型SP-YOLOv5孔隙检测算法。在输入层与卷积层之间增加Coordatt注意力机制模块,从而增强特征图的空间位置信息权重;改写YOLOv5网络结构,以增强网络模型对孔隙类小目标的检测能力;采用Soft-NMS代替原有NMS(非极大值抑制)进行检测结果后处理,进一步降低网络漏检率;将SP-YOLOv5算法孔隙检测结果与YOLOv5、Faster RCNN、RCNN以及ImageJ软件分析结果进行对比,得出SP-YOLOv5算法模型比其他算法模型的精度最高提升了10.57%;在此基础上,通过对激光熔覆熔池温度、熔池面积及熔覆层横截面孔隙率、熔宽、熔高、熔深等的测量,基于Stacking算法建立激光熔覆工艺参数与孔隙率的回归预测模型,并采用目标优化算法获得了较优激光熔覆工艺参数组合(激光功率1330 W、扫描速度460 mm/min、送粉率13 g/min),对熔覆件进行孔隙参数测量,结果显示,在这些优化参数下,Stacking模型预测的孔隙率与实际测量值的一致性达到97.5%,验证了优化方法的有效性,研究结果可为激光熔覆层孔隙缺陷的有效控制提供理论依据。 展开更多
关键词 激光熔覆 孔隙 计算机视觉 深度学习 目标 优化
在线阅读 下载PDF
上一页 1 2 250 下一页 到第
使用帮助 返回顶部