期刊文献+
共找到2,173篇文章
< 1 2 109 >
每页显示 20 50 100
Computational intelligence interception guidance law using online off-policy integral reinforcement learning
1
作者 WANG Qi LIAO Zhizhong 《Journal of Systems Engineering and Electronics》 SCIE CSCD 2024年第4期1042-1052,共11页
Missile interception problem can be regarded as a two-person zero-sum differential games problem,which depends on the solution of Hamilton-Jacobi-Isaacs(HJI)equa-tion.It has been proved impossible to obtain a closed-f... Missile interception problem can be regarded as a two-person zero-sum differential games problem,which depends on the solution of Hamilton-Jacobi-Isaacs(HJI)equa-tion.It has been proved impossible to obtain a closed-form solu-tion due to the nonlinearity of HJI equation,and many iterative algorithms are proposed to solve the HJI equation.Simultane-ous policy updating algorithm(SPUA)is an effective algorithm for solving HJI equation,but it is an on-policy integral reinforce-ment learning(IRL).For online implementation of SPUA,the dis-turbance signals need to be adjustable,which is unrealistic.In this paper,an off-policy IRL algorithm based on SPUA is pro-posed without making use of any knowledge of the systems dynamics.Then,a neural-network based online adaptive critic implementation scheme of the off-policy IRL algorithm is pre-sented.Based on the online off-policy IRL method,a computa-tional intelligence interception guidance(CIIG)law is developed for intercepting high-maneuvering target.As a model-free method,intercepting targets can be achieved through measur-ing system data online.The effectiveness of the CIIG is verified through two missile and target engagement scenarios. 展开更多
关键词 two-person zero-sum differential games Hamilton–Jacobi–Isaacs(HJI)equation off-policy integral reinforcement learning(IRL) online learning computational intelligence inter-ception guidance(CIIG)law
在线阅读 下载PDF
WCCI 2008 CALL FOR PAPERS IEEE World Congress on Computational Intelligence HongKong June 1-6, 2008
2
《控制理论与应用》 EI CAS CSCD 北大核心 2007年第3期511-511,共1页
)The 2008 IEEE World Congress on Computational Intelligence (WCCI 2008) will be held at the HongKong Convention and Exhibition Centre during June 1-6, 2008. WCCI 2008 will be the fifth milestone inthis series with a g... )The 2008 IEEE World Congress on Computational Intelligence (WCCI 2008) will be held at the HongKong Convention and Exhibition Centre during June 1-6, 2008. WCCI 2008 will be the fifth milestone inthis series with a glorious history from WCCI 1994 in Orlando, WCCI 1998 in Anchorage, WCCI 2002in Honolulu, to WCCI 2006 in Vancouver. Sponsored by the IEEE Computational Intelligence Society, 展开更多
关键词 IEEE WCCI 2008 CALL FOR PAPERS IEEE World Congress on computational intelligence HongKong June 1-6 World CALL
在线阅读 下载PDF
Multi-objective workflow scheduling in cloud system based on cooperative multi-swarm optimization algorithm 被引量:2
3
作者 YAO Guang-shun DING Yong-sheng HAO Kuang-rong 《Journal of Central South University》 SCIE EI CAS CSCD 2017年第5期1050-1062,共13页
In order to improve the performance of multi-objective workflow scheduling in cloud system, a multi-swarm multiobjective optimization algorithm(MSMOOA) is proposed to satisfy multiple conflicting objectives. Inspired ... In order to improve the performance of multi-objective workflow scheduling in cloud system, a multi-swarm multiobjective optimization algorithm(MSMOOA) is proposed to satisfy multiple conflicting objectives. Inspired by division of the same species into multiple swarms for different objectives and information sharing among these swarms in nature, each physical machine in the data center is considered a swarm and employs improved multi-objective particle swarm optimization to find out non-dominated solutions with one objective in MSMOOA. The particles in each swarm are divided into two classes and adopt different strategies to evolve cooperatively. One class of particles can communicate with several swarms simultaneously to promote the information sharing among swarms and the other class of particles can only exchange information with the particles located in the same swarm. Furthermore, in order to avoid the influence by the elastic available resources, a manager server is adopted in the cloud data center to collect the available resources for scheduling. The quality of the proposed method with other related approaches is evaluated by using hybrid and parallel workflow applications. The experiment results highlight the better performance of the MSMOOA than that of compared algorithms. 展开更多
关键词 multi-objective WORKFLOW scheduling multi-swarm OPTIMIZATION particle SWARM OPTIMIZATION (PSO) CLOUD computing system
在线阅读 下载PDF
Self-supervised learning artificial intelligence noise reduction technology based on the nearest adjacent layer in ultra-low dose CT of urinary calculi 被引量:3
4
作者 ZHOU Cheng LIU Yang +4 位作者 QIU Yingwei HE Daijun YAN Yu LUO Min LEI Youyuan 《中国医学影像技术》 CSCD 北大核心 2024年第8期1249-1253,共5页
Objective To observe the value of self-supervised deep learning artificial intelligence(AI)noise reduction technology based on the nearest adjacent layer applicated in ultra-low dose CT(ULDCT)for urinary calculi.Metho... Objective To observe the value of self-supervised deep learning artificial intelligence(AI)noise reduction technology based on the nearest adjacent layer applicated in ultra-low dose CT(ULDCT)for urinary calculi.Methods Eighty-eight urinary calculi patients were prospectively enrolled.Low dose CT(LDCT)and ULDCT scanning were performed,and the effective dose(ED)of each scanning protocol were calculated.The patients were then randomly divided into training set(n=75)and test set(n=13),and a self-supervised deep learning AI noise reduction system based on the nearest adjacent layer constructed with ULDCT images in training set was used for reducing noise of ULDCT images in test set.In test set,the quality of ULDCT images before and after AI noise reduction were compared with LDCT images,i.e.Blind/Referenceless Image Spatial Quality Evaluator(BRISQUE)scores,image noise(SD ROI)and signal-to-noise ratio(SNR).Results The tube current,the volume CT dose index and the dose length product of abdominal ULDCT scanning protocol were all lower compared with those of LDCT scanning protocol(all P<0.05),with a decrease of ED for approximately 82.66%.For 13 patients with urinary calculi in test set,BRISQUE score showed that the quality level of ULDCT images before AI noise reduction reached 54.42%level but raised to 95.76%level of LDCT images after AI noise reduction.Both ULDCT images after AI noise reduction and LDCT images had lower SD ROI and higher SNR than ULDCT images before AI noise reduction(all adjusted P<0.05),whereas no significant difference was found between the former two(both adjusted P>0.05).Conclusion Self-supervised learning AI noise reduction technology based on the nearest adjacent layer could effectively reduce noise and improve image quality of urinary calculi ULDCT images,being conducive for clinical application of ULDCT. 展开更多
关键词 urinary calculi tomography X-ray computed artificial intelligence prospective studies
在线阅读 下载PDF
Artificial intelligence models based on non-contrast chest CT for measuring bone mineral density 被引量:1
5
作者 DUAN Wei YANG Guoqing +6 位作者 LI Yang SHI Feng YANG Lian XIONG Xin CHEN Bei LI Yong FU Quanshui 《中国医学影像技术》 CSCD 北大核心 2024年第8期1231-1235,共5页
Objective To observe the value of artificial intelligence(AI)models based on non-contrast chest CT for measuring bone mineral density(BMD).Methods Totally 380 subjects who underwent both non-contrast chest CT and quan... Objective To observe the value of artificial intelligence(AI)models based on non-contrast chest CT for measuring bone mineral density(BMD).Methods Totally 380 subjects who underwent both non-contrast chest CT and quantitative CT(QCT)BMD examination were retrospectively enrolled and divided into training set(n=304)and test set(n=76)at a ratio of 8∶2.The mean BMD of L1—L3 vertebrae were measured based on QCT.Spongy bones of T5—T10 vertebrae were segmented as ROI,radiomics(Rad)features were extracted,and machine learning(ML),Rad and deep learning(DL)models were constructed for classification of osteoporosis(OP)and evaluating BMD,respectively.Receiver operating characteristic curves were drawn,and area under the curves(AUC)were calculated to evaluate the efficacy of each model for classification of OP.Bland-Altman analysis and Pearson correlation analysis were performed to explore the consistency and correlation of each model with QCT for measuring BMD.Results Among ML and Rad models,ML Bagging-OP and Rad Bagging-OP had the best performances for classification of OP.In test set,AUC of ML Bagging-OP,Rad Bagging-OP and DL OP for classification of OP was 0.943,0.944 and 0.947,respectively,with no significant difference(all P>0.05).BMD obtained with all the above models had good consistency with those measured with QCT(most of the differences were within the range of Ax-G±1.96 s),which were highly positively correlated(r=0.910—0.974,all P<0.001).Conclusion AI models based on non-contrast chest CT had high efficacy for classification of OP,and good consistency of BMD measurements were found between AI models and QCT. 展开更多
关键词 OSTEOPOROSIS bone density tomography X-ray computed artificial intelligence
在线阅读 下载PDF
Real-Time Monitoring Method for Cow Rumination Behavior Based on Edge Computing and Improved MobileNet v3
6
作者 ZHANG Yu LI Xiangting +4 位作者 SUN Yalin XUE Aidi ZHANG Yi JIANG Hailong SHEN Weizheng 《智慧农业(中英文)》 CSCD 2024年第4期29-41,共13页
[Objective]Real-time monitoring of cow ruminant behavior is of paramount importance for promptly obtaining relevant information about cow health and predicting cow diseases.Currently,various strategies have been propo... [Objective]Real-time monitoring of cow ruminant behavior is of paramount importance for promptly obtaining relevant information about cow health and predicting cow diseases.Currently,various strategies have been proposed for monitoring cow ruminant behavior,including video surveillance,sound recognition,and sensor monitoring methods.How‐ever,the application of edge device gives rise to the issue of inadequate real-time performance.To reduce the volume of data transmission and cloud computing workload while achieving real-time monitoring of dairy cow rumination behavior,a real-time monitoring method was proposed for cow ruminant behavior based on edge computing.[Methods]Autono‐mously designed edge devices were utilized to collect and process six-axis acceleration signals from cows in real-time.Based on these six-axis data,two distinct strategies,federated edge intelligence and split edge intelligence,were investigat‐ed for the real-time recognition of cow ruminant behavior.Focused on the real-time recognition method for cow ruminant behavior leveraging federated edge intelligence,the CA-MobileNet v3 network was proposed by enhancing the MobileNet v3 network with a collaborative attention mechanism.Additionally,a federated edge intelligence model was designed uti‐lizing the CA-MobileNet v3 network and the FedAvg federated aggregation algorithm.In the study on split edge intelli‐gence,a split edge intelligence model named MobileNet-LSTM was designed by integrating the MobileNet v3 network with a fusion collaborative attention mechanism and the Bi-LSTM network.[Results and Discussions]Through compara‐tive experiments with MobileNet v3 and MobileNet-LSTM,the federated edge intelligence model based on CA-Mo‐bileNet v3 achieved an average Precision rate,Recall rate,F1-Score,Specificity,and Accuracy of 97.1%,97.9%,97.5%,98.3%,and 98.2%,respectively,yielding the best recognition performance.[Conclusions]It is provided a real-time and effective method for monitoring cow ruminant behavior,and the proposed federated edge intelligence model can be ap‐plied in practical settings. 展开更多
关键词 cow rumination behavior real-time monitoring edge computing improved MobileNet v3 edge intelligence model Bi-LSTM
在线阅读 下载PDF
面向深度模型的对抗攻击与对抗防御技术综述 被引量:4
7
作者 王文萱 汪成磊 +2 位作者 齐慧慧 叶梦昊 张艳宁 《信号处理》 北大核心 2025年第2期198-223,共26页
深度学习技术已广泛应用于图像分类和目标检测等计算机视觉核心任务,并取得了瞩目的进展。然而,深度学习模型因其高度的复杂性与内在的不确定性,极易成为对抗样本攻击的靶标。攻击者巧妙地利用数据中细微的、精心设计的扰动,诱导模型以... 深度学习技术已广泛应用于图像分类和目标检测等计算机视觉核心任务,并取得了瞩目的进展。然而,深度学习模型因其高度的复杂性与内在的不确定性,极易成为对抗样本攻击的靶标。攻击者巧妙地利用数据中细微的、精心设计的扰动,诱导模型以极高的置信度输出错误结果,此类对抗样本对实际应用场景中模型的可靠性及安全性构成了严峻的挑战与潜在威胁。例如,攻击者可利用对抗眼镜误导人脸识别系统,导致身份误判,进而实施非法入侵、身份冒用等威胁公共安全和个人隐私的行为;也可对自动驾驶系统的监控数据添加对抗噪声,虽不破坏交通工具本身特征,却可能导致漏检重要交通工具,引发交通混乱甚至事故,造成严重后果。本文旨在梳理当前对抗攻击与对抗防御技术的研究现状。具体而言,内容涵盖以下三个方面:1)在概述对抗样本基本概念和分类的基础上,剖析了多种对抗攻击的形式和策略,并举例介绍了具有代表性的经典对抗样本生成方法;2)阐述对抗样本的防御方法,从模型优化、数据优化和附加网络三个方向系统梳理了当前提高模型对抗鲁棒性的各类算法,分析了各类防御方法的创新性和有效性;3)介绍对抗攻击和对抗防御的应用实例,阐述了大模型时代对抗攻击和防御的发展现状,分析了在实际应用中遇到的挑战及解决方案。最后本文对当前对抗攻击与防御方法进行了总结分析,并展望了该领域内未来的研究方向。 展开更多
关键词 对抗攻击 对抗防御 深度学习 计算机视觉 可信人工智能
在线阅读 下载PDF
算法时代的法治之路:计算法学的规范性探索 被引量:4
8
作者 李学尧 刘庄 《交大法学》 北大核心 2025年第1期86-100,共15页
本文借助法律形式主义与法律现实主义的两分范式,探讨了计算法学在法律与人工智能研究中的历史起源、理论进展与未来方向,并结合法律形式主义与法律现实主义的双重路径,系统分析了其在理论与实践中的挑战与潜力。通过回溯莱布尼茨的法... 本文借助法律形式主义与法律现实主义的两分范式,探讨了计算法学在法律与人工智能研究中的历史起源、理论进展与未来方向,并结合法律形式主义与法律现实主义的双重路径,系统分析了其在理论与实践中的挑战与潜力。通过回溯莱布尼茨的法学梦想,本文提出,尽管计算法学在消解法律不确定性方面取得显著成效,但“法律奇点论”等极端形式主义思潮仍存在理论与实践的盲点。计算法学不仅需要在规则与预测之间寻求平衡,还应通过融合认知神经科学等跨学科方法,加强其介入法律解释与规范辩论的科学性和可操作性。本文主张一种超越技术决定论的“计算法治”框架,强调法律应在“计算性”与“人性”之间找到动态平衡,从而确保技术进步与社会价值的良性互动。 展开更多
关键词 计算法学 莱布尼茨 法律奇点 计算神经科学 法律与人工智能
在线阅读 下载PDF
生成式人工智能何以赋能学生数字素养培育——基于信息科技课程的实证研究 被引量:6
9
作者 朱莎 李嘉源 +1 位作者 况秀林 白洁 《中国电化教育》 北大核心 2025年第2期75-83,共9页
数字素养是数字时代人才综合素质的重要组成部分,培育学生数字素养是培养符合数字时代需求的高质量人才队伍的必由之路。然而,由于学生数字素养培育理念过于强调技术工具的操作使用,忽视了智能时代倡导的人机协同自主学习,这已成为制约... 数字素养是数字时代人才综合素质的重要组成部分,培育学生数字素养是培养符合数字时代需求的高质量人才队伍的必由之路。然而,由于学生数字素养培育理念过于强调技术工具的操作使用,忽视了智能时代倡导的人机协同自主学习,这已成为制约学生数字素养培育的瓶颈。生成式人工智能在创设灵活开放、包容共享的人机协同环境,引导学生自组织学习方面具有巨大潜力,可为破解上述困境提供新的契机。鉴于此,该文构建了基于自组织学习理论的学生数字素养培育模型,提出面向学生数字素养培育的GAiSOLEs教学模式,并在信息科技课程中开展准实验研究,验证GAiSOLEs教学模式对学生数字素养培育的影响。结果表明,GAiSOLEs教学模式可以显著提升学生的数字素养整体水平,以及信息意识、计算思维和数字化学习与创新等维度水平,但对信息社会责任的提升效果不显著。基于此,提出应该重视技术伦理安全,构建可控教育大模型,关注学生数字知识技能发展,避免陷入认知陷阱,并开展生成式人工智能教学培训,提升教师数字素养。 展开更多
关键词 数字素养 人机协同 生成式人工智能 信息科技课程 教学模式
在线阅读 下载PDF
《涉及精神障碍临床研究的伦理审查指南》解析 被引量:1
10
作者 王雪芹 孙洪强 +1 位作者 李义庭 陆林 《中国医学伦理学》 北大核心 2025年第1期23-30,共8页
科技伦理治理中涉及精神障碍临床研究的伦理审查具有明显的特殊性,尤其在人工智能与脑机接口领域,体现在对精神自主性的影响、严重精神障碍研究参与者参加研究的知情同意能力受损等方面;另外,临床研究中的病耻感、安慰剂应用及心理评估... 科技伦理治理中涉及精神障碍临床研究的伦理审查具有明显的特殊性,尤其在人工智能与脑机接口领域,体现在对精神自主性的影响、严重精神障碍研究参与者参加研究的知情同意能力受损等方面;另外,临床研究中的病耻感、安慰剂应用及心理评估的方法等,也使得精神医学伦理审查备受关注。2020年,北京市卫生健康委员会发布了《涉及精神障碍临床研究的伦理审查指南》,《沈渔邨精神病学》(第七版)对《涉及精神障碍临床研究的伦理审查指南》在伦理治理背景下的应用进行了修订,对其印发和修订的目的和意义、适用范围、医疗卫生机构伦理审查的主体责任、精神医学伦理审查的重点内容进行了分析,以提高涉及精神障碍临床研究的伦理审查质量,推动精神医学临床研究的规范发展。 展开更多
关键词 精神障碍 临床研究 人工智能 脑机接口 伦理审查
在线阅读 下载PDF
面向自智算力网络的数字孪生:架构与关键挑战 被引量:1
11
作者 黄韬 周子翔 +1 位作者 唐琴琴 谢人超 《通信学报》 北大核心 2025年第4期255-271,共17页
当前自智算力网络面临复杂故障场景响应滞后、优化策略部署低效、海量数据运营困境等挑战。通过数字孪生构建虚拟镜像,实现实时监测与故障推演,赋能智能运维,助力突破自智算力网络的发展瓶颈。基于自智算力网络和数字孪生的定义,提出了... 当前自智算力网络面临复杂故障场景响应滞后、优化策略部署低效、海量数据运营困境等挑战。通过数字孪生构建虚拟镜像,实现实时监测与故障推演,赋能智能运维,助力突破自智算力网络的发展瓶颈。基于自智算力网络和数字孪生的定义,提出了面向自智算力网络的数字孪生架构,阐述了设计原则、部署方法和典型应用场景,分析了应用数字孪生技术面临的关键挑战。最后提出了一些开放性问题,展望了面向自智算力网络的数字孪生未来研究方向。 展开更多
关键词 自智算力网络 数字孪生 资源管理 智能决策
在线阅读 下载PDF
全球视角下教育者人工智能素养框架:内容架构、实践示例和应用策略 被引量:4
12
作者 兰国帅 肖琪 +3 位作者 宋帆 杜水莲 丁琳琳 蔡帆帆 《开放教育研究》 北大核心 2025年第2期55-66,共12页
提升教育者的人工智能素养已成为主动适应国家数字教育强国建设的重要议题。然而,我国对人工智能素养的研究仍处于探索阶段,且主要关注学生或区域框架。教育者人工智能素养的研究在理论层面存在框架缺失、评价指标缺乏等问题,实践层面... 提升教育者的人工智能素养已成为主动适应国家数字教育强国建设的重要议题。然而,我国对人工智能素养的研究仍处于探索阶段,且主要关注学生或区域框架。教育者人工智能素养的研究在理论层面存在框架缺失、评价指标缺乏等问题,实践层面面临监管政策缺位、应用指南短缺、评估工具匮乏等挑战。美国数字承诺组织制定的《人工智能素养:理解、评估和使用新兴技术框架》可为我国构建本土化教育者人工智能素养框架、提升教育者人工智能素养提供参考。该框架定义了人工智能素养的内涵,涵盖人工智能素养六类教育实践、两条核心原则、三种参与模式和三种使用类型,并提供了高中人工智能素养框架应用的实践示例和中小学提升人工智能素养学习体验的五种应用策略。我国应深化人工智能素养教育实践,构建系统普适的教育者人工智能素养框架;完善人工智能应用评估体系,围绕人工智能核心原则推动新兴技术发展;建立动态的人工智能监管机制,促进数智化时代新质人才教育转型;提升教育主体的人工智能素养,共筑实践导向的人工智能教学新生态;树立育人导向智能教学理念,融合教育大模型助推教育强国建设。 展开更多
关键词 人工智能素养 人工智能素养框架 计算思维 数据素养 数字素养 数字公民
在线阅读 下载PDF
面向边缘智能的协同推理方法研究综述 被引量:1
13
作者 赵婵婵 吕飞 +3 位作者 石宝 尉晓敏 杨星辰 岳效灿 《计算机工程与应用》 北大核心 2025年第3期1-20,共20页
随着边缘智能的兴起,协同推理技术通过云、边缘和终端设备之间的协作在提升智能应用的效率和性能方面取得了明显的进展。阐述了边缘智能的性能指标和应用场景及挑战,并以边缘智能的评级架构引出协同推理技术下的四种推理范式:端端协同... 随着边缘智能的兴起,协同推理技术通过云、边缘和终端设备之间的协作在提升智能应用的效率和性能方面取得了明显的进展。阐述了边缘智能的性能指标和应用场景及挑战,并以边缘智能的评级架构引出协同推理技术下的四种推理范式:端端协同、边端协同、边边协同和云边端协同推理。根据协同推理技术应用场景的局限性和差异性,对不同推理范式中协同推理技术的优势、局限性、原理及优化目标进行了全面分析对比。详细探讨了协同推理技术在不同应用场景下所解决的计算资源分配、推理时延优化和吞吐量优化等问题,指出了边缘智能中协同推理技术在隐私安全、通信服务资源管理、协同训练方面的挑战,并对其未来的发展趋势和研究方向进行了讨论,为该领域的研究提供参考和借鉴。 展开更多
关键词 边缘计算 边缘智能 协同推理 机器学习
在线阅读 下载PDF
面向含噪中规模量子处理器的量子机器学习 被引量:1
14
作者 石金晶 肖子萌 +2 位作者 王雯萱 张师超 李学龙 《计算机学报》 北大核心 2025年第3期602-631,共30页
量子计算与人工智能结合,在增强模型表达能力、加速和优化机器学习等方面可能产生颠覆性影响,有望突破人工智能领域所面临的可解释性差、最优解难等问题,量子人工智能已成为国内外重点关注的学科前沿。量子机器学习是量子人工智能领域... 量子计算与人工智能结合,在增强模型表达能力、加速和优化机器学习等方面可能产生颠覆性影响,有望突破人工智能领域所面临的可解释性差、最优解难等问题,量子人工智能已成为国内外重点关注的学科前沿。量子机器学习是量子人工智能领域的重要研究内容,它将量子计算基础理论与机器学习原理相结合,以实现具有量子加速的机器学习任务。随着量子计算软硬件的快速发展,含噪中规模量子(NISQ)处理器的学习优势被证明,国内外学者相继提出一系列量子机器学习方法,以挖掘量子计算助力人工智能技术发展的创新应用。然而,当前的量子机器学习仍局限于对算法的优化,缺乏系统层面的理论架构,仍有许多科学问题亟待解决。本文首先从量子机器学习系统表征角度出发,建立量子机器学习系统的层次模型,概括和总结了面向各类任务的量子机器学习方案,分析了量子机器学习在提高经典算法速度等方面可能体现的“量子优势”。接着根据量子机器学习系统的层次结构,从原理层、计算层、应用层这三个方面对现有量子机器学习方法进行了总结与梳理,系统性地分析和讨论了其中的关键问题与解决方案。最后,结合当前阶段量子人工智能的发展特点,重点分析了量子机器学习领域面临的科学问题与挑战,并对未来该领域的发展趋势进行了深入分析与展望。 展开更多
关键词 量子计算 量子人工智能 量子机器学习 量子算法 含噪中规模量子处理器
在线阅读 下载PDF
群体智能视角下的高等生物仿生计算:问题分析与综合评述
15
作者 肖人彬 邬博文 +1 位作者 赵嘉 陈峙臻 《复杂系统与复杂性科学》 北大核心 2025年第1期1-10,共10页
以高等生物为关注点,从涵盖群智能和众智能的群体智能整体视角,对仿生计算中存在的问题进行分析并展开综合性评述,提出并阐释若干新的观点和见解。在对高等生物(涉及基本高等生物、常规高等生物和类人高等生物)仿生计算研究进展进行概... 以高等生物为关注点,从涵盖群智能和众智能的群体智能整体视角,对仿生计算中存在的问题进行分析并展开综合性评述,提出并阐释若干新的观点和见解。在对高等生物(涉及基本高等生物、常规高等生物和类人高等生物)仿生计算研究进展进行概要论述的基础上,针对群智能优化中以“动物园算法”为标志的造算法之风,发现研究中出现的回流现象,从仿生-计算维度和问题-方法维度对造算法之风的形成原因给予合理解读。进而给出解决问题的整体思路,提炼形成群体智能仿生计算的两个主要发展方向,强调仿生行为向合作行为方向的拓展在群体智能仿生计算发展方向上处于主导地位;针对群智能优化研究存在的困难,提出需要重点发力实现突破的5个瓶颈问题;基于“隐喻式仿生计算-规范仿生计算-复杂仿生计算”的整体视图,倡导复杂仿生计算的智能计算新范式,为高等生物仿生计算引领方向。 展开更多
关键词 群体智能 仿生计算 合作行为 灵长类 动物园算法 智能计算范式
在线阅读 下载PDF
医疗领域的大型语言模型综述
16
作者 肖建力 许东舟 +4 位作者 王浩 刘敏 周雷 朱林 顾松 《智能系统学报》 北大核心 2025年第3期530-547,共18页
深度学习是人工智能领域的热门研究方向之一,它通过构建多层人工神经网络模仿人脑对数据的处理机制。大型语言模型(large language model,LLM)基于深度学习的架构,在无需编程指令的情况下,能通过分析大量数据以获得理解和生成人类语言... 深度学习是人工智能领域的热门研究方向之一,它通过构建多层人工神经网络模仿人脑对数据的处理机制。大型语言模型(large language model,LLM)基于深度学习的架构,在无需编程指令的情况下,能通过分析大量数据以获得理解和生成人类语言的能力,被广泛应用于自然语言处理、计算机视觉、智慧医疗、智慧交通等诸多领域。文章总结了LLM在医疗领域的应用,涵盖了LLM针对医疗任务的基本训练流程、特殊策略以及在具体医疗场景中的应用。同时,进一步讨论了LLM在应用中面临的挑战,包括决策过程缺乏透明度、输出准确性以及隐私、伦理问题等,随后列举了相应的改进策略。最后,文章展望了LLM在医疗领域的未来发展趋势,及其对人类健康事业发展的潜在影响。 展开更多
关键词 人工智能 深度学习 TRANSFORMER 大型语言模型 智慧医疗 数据分析 图像处理 计算机视觉
在线阅读 下载PDF
基于人工智能的CT影像组学在结核病诊断和治疗反应监测中应用的研究进展
17
作者 朱庆东 赵春艳 +2 位作者 谢周华 宋树林 宋畅 《中国防痨杂志》 北大核心 2025年第8期1068-1076,共9页
近年来,影像组学模型通过融合临床特征与深度学习技术,可有效区分肺结核与肺癌、非结核分枝杆菌肺病及社区获得性肺炎等,在肺结核鉴别诊断中表现优异,显著优于传统影像评估,尤其可为诊断困难、样本获取受限的肺外结核(如肠结核、淋巴结... 近年来,影像组学模型通过融合临床特征与深度学习技术,可有效区分肺结核与肺癌、非结核分枝杆菌肺病及社区获得性肺炎等,在肺结核鉴别诊断中表现优异,显著优于传统影像评估,尤其可为诊断困难、样本获取受限的肺外结核(如肠结核、淋巴结结核)提供强有力的无创诊断工具。其构建的多模态融合模型不仅在鉴别肠结核与克罗恩病、淋巴结结核与淋巴瘤等方面展现出较高的精度,还在耐药结核病的预测及治疗反应的动态监测中显示出重要的潜力,在结核病诊疗中展现出广阔前景。但受限于数据集质量参差不齐、模型泛化能力有限、临床验证不足等问题,影像组学模型在结核病诊疗中仍面临着严峻挑战。本文通过深入分析文献发现,系统综述了人工智能(artificial intelligence,AI)驱动的计算机断层扫描(computed tomography,CT)影像组学技术在结核病(含肺结核及肺外结核)诊断及治疗反应监测中的最新研究进展与应用价值,聚焦于多模态融合技术与临床落地场景的创新分析,为指引未来的研究方向、进一步推动其在结核病诊疗中的应用与发展、助力结核病精准医疗和防控工作提供借鉴。 展开更多
关键词 人工智能 放射摄影影像解释 计算机辅助 结核 诊断 计算机辅助 综述文献(主题)
在线阅读 下载PDF
数算融合网络技术发展研究
18
作者 刘韵洁 汪硕 +1 位作者 黄韬 王佳森 《中国工程科学》 北大核心 2025年第1期1-13,共13页
数算融合网络是为数据空间应用定制网络服务的智能通信网络基础设施,对推动数据空间构建、数据要素流通、算力和数据融合具有促进作用,可为数据确权、流通和交易等新的经济增长点提供技术支撑。本文在介绍数算融合网络内涵的基础上,概... 数算融合网络是为数据空间应用定制网络服务的智能通信网络基础设施,对推动数据空间构建、数据要素流通、算力和数据融合具有促进作用,可为数据确权、流通和交易等新的经济增长点提供技术支撑。本文在介绍数算融合网络内涵的基础上,概述了其数据平面、控制平面、编排层具备的关键功能,梳理了我国发展数算融合网络的宏观发展需求,详细讨论了数算融合网络技术的发展现状和国际态势。进一步研判了数算融合网络端侧、数据中心内、数据中心出口、数据中心间、算力中心间、数据和算力中心间、控制层、编排层、安全体系等方面的关键技术,列举了数算融合网络的应用场景和具体案例,包括“东数西算”枢纽互联、城市算力网、工业外网互联、能源设施互联、行业大模型。在分析我国数算融合网络技术发展面临的挑战后,研究建议:构建支撑行业大模型高质量发展的公用专网;推动数算融合网络科学装置建设,服务国家科学发展;依托数算融合网络,推动数据空间成果落地;开展大规模算力协作,突破单点算力不足瓶颈,为数据空间网络基础设施发展提供参考。 展开更多
关键词 数算融合网络 数据空间 智能联网 算力网 数算融合关键技术
在线阅读 下载PDF
多学科融合创新的健康食品开发综合实验设计
19
作者 张琳 蒲洪彬 +1 位作者 杨丽 娄文勇 《实验室研究与探索》 北大核心 2025年第3期124-129,共6页
为适应食品专业多学科交叉融合教学需求,以精准化和个性化健康食品设计开发为研究主题,设计了健康食品数智化开发和指标检测的综合性创新性实验。实验模拟健康食品设计、制造、检测和评价全过程,建立健康食品配方多目标约束方程并用数... 为适应食品专业多学科交叉融合教学需求,以精准化和个性化健康食品设计开发为研究主题,设计了健康食品数智化开发和指标检测的综合性创新性实验。实验模拟健康食品设计、制造、检测和评价全过程,建立健康食品配方多目标约束方程并用数学规划求解优化;筛选了稳定剂、甜味剂等添加剂并制备产品;对制备产品进行质量分析和感官品评。本实验充分融合思政、虚拟仿真、食品工程等多学科理论知识和实践环节,将多种先进的智能设计与分析等计算机技术贯穿其中,具有信息化、数字化和科技化特色,可提高学生创新意识、数字化思维和跨界整合能力,助力培养高素质复合型的新工科人才。 展开更多
关键词 健康食品 计算机技术 数智化开发与评价 综合创新实验
在线阅读 下载PDF
计算知识服务:概念框架与逻辑范式
20
作者 周鹏 张佶 姚伟 《图书馆论坛》 北大核心 2025年第3期13-22,共10页
数智化时代,数据的海量性与复杂性加速刺激着以知识服务为代表的非实物资产向计算化迈进,构建数智化时代的知识服务新模式对于挖掘数据潜在价值、提高知识服务的价值具有重要意义。文章借鉴计算知识管理科学的相关研究,结合多模态数据... 数智化时代,数据的海量性与复杂性加速刺激着以知识服务为代表的非实物资产向计算化迈进,构建数智化时代的知识服务新模式对于挖掘数据潜在价值、提高知识服务的价值具有重要意义。文章借鉴计算知识管理科学的相关研究,结合多模态数据的特征属性、知识外显化的计算技术、图形系统化的孪生架构,系统化计算知识服务的概念,构建计算知识服务模式并探讨其逻辑进路。融合数智化技术构建数据可计算、服务可获取的计算知识服务模式,是实现以“算力-算法-需求”为支持与指引,驱动“数据-知识-服务”动态转化的可行之策。计算知识服务模式需要从需求感知、计算智能、连接智能和感知智能四个层面进行系统化构建。发展智能知识服务计算、智能知识服务模拟和智能知识服务实验可以良好应对不同层面的问题。 展开更多
关键词 计算知识服务 智慧转型 计算知识管理科学 数智化 知识孪生
在线阅读 下载PDF
上一页 1 2 109 下一页 到第
使用帮助 返回顶部