期刊文献+
共找到2,490篇文章
< 1 2 125 >
每页显示 20 50 100
基于MDP和Q-learning的绿色移动边缘计算任务卸载策略
1
作者 赵宏伟 吕盛凱 +2 位作者 庞芷茜 马子涵 李雨 《河南理工大学学报(自然科学版)》 北大核心 2025年第5期9-16,共8页
目的为了在汽车、空调等制造类工业互联网企业中实现碳中和,利用边缘计算任务卸载技术处理生产设备的任务卸载问题,以减少服务器的中心负载,减少数据中心的能源消耗和碳排放。方法提出一种基于马尔可夫决策过程(Markov decision process... 目的为了在汽车、空调等制造类工业互联网企业中实现碳中和,利用边缘计算任务卸载技术处理生产设备的任务卸载问题,以减少服务器的中心负载,减少数据中心的能源消耗和碳排放。方法提出一种基于马尔可夫决策过程(Markov decision process,MDP)和Q-learning的绿色边缘计算任务卸载策略,该策略考虑了计算频率、传输功率、碳排放等约束,基于云边端协同计算模型,将碳排放优化问题转化为混合整数线性规划模型,通过MDP和Q-learning求解模型,并对比随机分配算法、Q-learning算法、SARSA(state action reward state action)算法的收敛性能、碳排放与总时延。结果与已有的计算卸载策略相比,新策略对应的任务调度算法收敛比SARSA算法、Q-learning算法分别提高了5%,2%,收敛性更好;系统碳排放成本比Q-learning算法、SARSA算法分别减少了8%,22%;考虑终端数量多少,新策略比Q-learning算法、SARSA算法终端数量分别减少了6%,7%;系统总计算时延上,新策略明显低于其他算法,比随机分配算法、Q-learning算法、SARSA算法分别减少了27%,14%,22%。结论该策略能够合理优化卸载计算任务和资源分配,权衡时延、能耗,减少系统碳排放量。 展开更多
关键词 碳排放 边缘计算 强化学习 马尔可夫决策过程 任务卸载
在线阅读 下载PDF
Deep Learning Hybrid Model for Lithium-Ion Battery Aging Estimation and Prediction
2
作者 项越 姜波 戴海峰 《同济大学学报(自然科学版)》 EI CAS CSCD 北大核心 2024年第S01期215-222,共8页
The degradation process of lithium-ion batteries is intricately linked to their entire lifecycle as power sources and energy storage devices,encompassing aspects such as performance delivery and cycling utilization.Co... The degradation process of lithium-ion batteries is intricately linked to their entire lifecycle as power sources and energy storage devices,encompassing aspects such as performance delivery and cycling utilization.Consequently,the accurate and expedient estimation or prediction of the aging state of lithium-ion batteries has garnered extensive attention.Nonetheless,prevailing research predominantly concentrates on either aging estimation or prediction,neglecting the dynamic fusion of both facets.This paper proposes a hybrid model for capacity aging estimation and prediction based on deep learning,wherein salient features highly pertinent to aging are extracted from charge and discharge relaxation processes.By amalgamating historical capacity decay data,the model dynamically furnishes estimations of the present capacity and forecasts of future capacity for lithium-ion batteries.Our approach is validated against a novel dataset involving charge and discharge cycles at varying rates.Specifically,under a charging condition of 0.25 C,a mean absolute percentage error(MAPE)of 0.29%is achieved.This outcome underscores the model's adeptness in harnessing relaxation processes commonly encountered in the real world and synergizing with historical capacity records within battery management systems(BMS),thereby affording estimations and prognostications of capacity decline with heightened precision. 展开更多
关键词 lithium-ion battery state of health deep learning relaxation process
在线阅读 下载PDF
Recorded recurrent deep reinforcement learning guidance laws for intercepting endoatmospheric maneuvering missiles
3
作者 Xiaoqi Qiu Peng Lai +1 位作者 Changsheng Gao Wuxing Jing 《Defence Technology(防务技术)》 SCIE EI CAS CSCD 2024年第1期457-470,共14页
This work proposes a recorded recurrent twin delayed deep deterministic(RRTD3)policy gradient algorithm to solve the challenge of constructing guidance laws for intercepting endoatmospheric maneuvering missiles with u... This work proposes a recorded recurrent twin delayed deep deterministic(RRTD3)policy gradient algorithm to solve the challenge of constructing guidance laws for intercepting endoatmospheric maneuvering missiles with uncertainties and observation noise.The attack-defense engagement scenario is modeled as a partially observable Markov decision process(POMDP).Given the benefits of recurrent neural networks(RNNs)in processing sequence information,an RNN layer is incorporated into the agent’s policy network to alleviate the bottleneck of traditional deep reinforcement learning methods while dealing with POMDPs.The measurements from the interceptor’s seeker during each guidance cycle are combined into one sequence as the input to the policy network since the detection frequency of an interceptor is usually higher than its guidance frequency.During training,the hidden states of the RNN layer in the policy network are recorded to overcome the partially observable problem that this RNN layer causes inside the agent.The training curves show that the proposed RRTD3 successfully enhances data efficiency,training speed,and training stability.The test results confirm the advantages of the RRTD3-based guidance laws over some conventional guidance laws. 展开更多
关键词 Endoatmospheric interception Missile guidance Reinforcement learning Markov decision process Recurrent neural networks
在线阅读 下载PDF
Approaches to Affective Computing and Learning towards Interactive Decision Making in Process Control Engineering 被引量:8
4
作者 宿翀 李宏光 《自动化学报》 EI CSCD 北大核心 2013年第5期617-625,共9页
关键词 多目标决策问题 过程控制工程 情感计算 学习策略 PID参数整定 制作 法向 收敛性分析
在线阅读 下载PDF
基于工作流学习的e-Learning环境 被引量:3
5
作者 叶海松 季隽 《开放教育研究》 CSSCI 2007年第2期73-76,共4页
普通的e-Learning系统注重对学习对象和学习结果的管理,但忽视了学习的过程。基于工作流的教学活动可以帮助我们对学习过程进行支持、管理和监测。因此,本文将讨论工作流学习在e-Learning环境中的应用和基于工作流管理系统的教学环境的... 普通的e-Learning系统注重对学习对象和学习结果的管理,但忽视了学习的过程。基于工作流的教学活动可以帮助我们对学习过程进行支持、管理和监测。因此,本文将讨论工作流学习在e-Learning环境中的应用和基于工作流管理系统的教学环境的构建思路。 展开更多
关键词 E-learning 工作流学习 过程性评价 面向服务构架
在线阅读 下载PDF
E-learning系统中学习评价的研究 被引量:11
6
作者 刘力红 王晓平 吴启迪 《计算机工程与应用》 CSCD 北大核心 2005年第34期52-53,88,共3页
针对目前E-learning系统中不能全面地对学员的学习情况进行评价的问题,提出了一个基于模糊综合评判法的E-learning学习评价综合评判模型,并用C语言对所提出的模型进行了程序实现。把学生的学习数据及运行结果进行对比分析可知:模糊综合... 针对目前E-learning系统中不能全面地对学员的学习情况进行评价的问题,提出了一个基于模糊综合评判法的E-learning学习评价综合评判模型,并用C语言对所提出的模型进行了程序实现。把学生的学习数据及运行结果进行对比分析可知:模糊综合评判法能综合考虑学员学习过程中表现出的各种因素,从而能得到更全面、更准确的评价结果。 展开更多
关键词 E-learning学习评价 模糊综合评判法 层次分析法
在线阅读 下载PDF
基于Q-learning的虚拟网络功能调度方法 被引量:35
7
作者 王晓雷 陈云杰 +1 位作者 王琛 牛犇 《计算机工程》 CAS CSCD 北大核心 2019年第2期64-69,共6页
针对现有调度方法多数未考虑虚拟网络功能在实例化过程中的虚拟机选择问题,提出一种新的虚拟网络调度方法。建立基于马尔科夫决策过程的虚拟网络功能调度模型,以最小化所有服务功能链的服务延迟时间。通过设计基于Q-learning的动态调度... 针对现有调度方法多数未考虑虚拟网络功能在实例化过程中的虚拟机选择问题,提出一种新的虚拟网络调度方法。建立基于马尔科夫决策过程的虚拟网络功能调度模型,以最小化所有服务功能链的服务延迟时间。通过设计基于Q-learning的动态调度算法,优化虚拟网络功能的调度顺序和虚拟机选择问题,实现最短网络功能虚拟化调度时间。仿真结果表明,与传统的随机虚拟机选择策略相比,该方法能够有效降低虚拟网络功能调度时间,特别是在大规模网络中调度时间可降低约40%。 展开更多
关键词 网络功能虚拟化 服务功能链 调度模型 马尔科夫决策过程 Q-学习
在线阅读 下载PDF
基于E-Learning的数据挖掘系统的改进设计与实现 被引量:5
8
作者 陶漪 《现代电子技术》 北大核心 2017年第2期133-136,140,共5页
受到用户数据复杂性和多变性的影响,传统数据挖掘系统往往难以精确掌控用户数据走向。为加强数据挖掘系统的挖掘精度与稳定性,提出基于E-Learning的数据挖掘系统。该系统包括E-Learning编辑服务器和数据处理体系,ELearning编辑服务器由... 受到用户数据复杂性和多变性的影响,传统数据挖掘系统往往难以精确掌控用户数据走向。为加强数据挖掘系统的挖掘精度与稳定性,提出基于E-Learning的数据挖掘系统。该系统包括E-Learning编辑服务器和数据处理体系,ELearning编辑服务器由准备模块、展示模块和生成模块构成。准备模块为不了解E-Learning数据挖掘系统的用户提供帮助,将挖掘出的用户行为数据传递给展示模块,经展示模块对用户数据进行控制、筛选和解析并传输到生成模块与知识库,生成模块对挖掘出的用户数据进行个性化定制。数据处理体系利用数据挖掘查询语言进行数据查找与解析,将解析后的数据保存于知识库,并将数据传回E-Learning编辑服务器进行循环使用。软件设计中,给出通过数据挖掘查询语言衡量用户兴趣点,对知识库进行数据的多样性非标准挖掘过程。实验结果表明,所提方法拥有较高的挖掘准确度与稳定性。 展开更多
关键词 E-learning 数据挖掘 设计改进 数据处理
在线阅读 下载PDF
流量拥堵空域内一种基于Q-Learning算法的改航路径规划 被引量:2
9
作者 向征 何雨阳 全志伟 《科学技术与工程》 北大核心 2022年第32期14494-14501,共8页
目前,空中流量激增导致空域资源紧张的问题越发凸显,为了缓解这一现状,基于流量管理层面对航空器进行改航路径的研究。首先采用栅格化的方式对空域环境进行离散化处理,根据航路点流量的拥挤程度把空域划分为3种不同类型的栅格区域。其... 目前,空中流量激增导致空域资源紧张的问题越发凸显,为了缓解这一现状,基于流量管理层面对航空器进行改航路径的研究。首先采用栅格化的方式对空域环境进行离散化处理,根据航路点流量的拥挤程度把空域划分为3种不同类型的栅格区域。其次通过改进强化学习中马尔科夫决策过程的奖励函数对其进行建模,并基于ε-greedy策略运用Q-Learning算法对该模型进行迭代求解,对相应的参数取值进行探究比较以提高结果的可适用性。最后经过仿真运行,计算出不同参数赋值下的最优路径及相应的性能指标。结果表明:应用该模型和算法可以针对某一时段内的流量拥堵空域搜索出合适的改航路径,使飞机避开流量拥挤的航路点,缩短空中延误时间,有效改善空域拥堵的现况。 展开更多
关键词 改航路径规划 流量拥堵 强化学习 马尔科夫决策过程 Q-learning算法 ε-greedy策略
在线阅读 下载PDF
基于Q-Learning算法和神经网络的飞艇控制 被引量:5
10
作者 聂春雨 祝明 +1 位作者 郑泽伟 武哲 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2017年第12期2431-2438,共8页
针对现代飞艇控制中动力学模型不确定性带来的系统建模和参数辨识工作较为复杂的问题,提出了一种基于自适应建模和在线学习机制的控制策略。设计了一种在分析实际运动的基础上建立飞艇控制马尔可夫决策过程(MDP)模型的方法,具有自适应... 针对现代飞艇控制中动力学模型不确定性带来的系统建模和参数辨识工作较为复杂的问题,提出了一种基于自适应建模和在线学习机制的控制策略。设计了一种在分析实际运动的基础上建立飞艇控制马尔可夫决策过程(MDP)模型的方法,具有自适应性。采用Q-Learning算法进行在线学习并利用小脑模型关节控制器(CMAC)神经网络对动作值函数进行泛化加速。对本文方法进行仿真并与经过参数整定的PID控制器对比,验证了该控制策略的有效性。结果表明,在线学习过程能够在数小时内收敛,通过自适应方法建立的MDP模型能够满足常见飞艇控制任务的需求。本文所提控制器能够获得与PID控制器精度相当且更为智能的控制效果。 展开更多
关键词 飞艇 马尔可夫决策过程(MDP) 机器学习 Q-learning 小脑模型关节控制器(CMAC)
在线阅读 下载PDF
Fuzzy Q learning algorithm for dual-aircraft path planning to cooperatively detect targets by passive radars 被引量:6
11
作者 Xiang Gao Yangwang Fang Youli Wu 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2013年第5期800-810,共11页
The problem of passive detection discussed in this paper involves searching and locating an aerial emitter by dualaircraft using passive radars. In order to improve the detection probability and accuracy, a fuzzy Q le... The problem of passive detection discussed in this paper involves searching and locating an aerial emitter by dualaircraft using passive radars. In order to improve the detection probability and accuracy, a fuzzy Q learning algorithrn for dual-aircraft flight path planning is proposed. The passive detection task model of the dual-aircraft is set up based on the partition of the target active radar's radiation area. The problem is formulated as a Markov decision process (MDP) by using the fuzzy theory to make a generalization of the state space and defining the transition functions, action space and reward function properly. Details of the path planning algorithm are presented. Simulation results indicate that the algorithm can provide adaptive strategies for dual-aircraft to control their flight paths to detect a non-maneuvering or maneu- vering target. 展开更多
关键词 Markov decision process (MDP) fuzzy Q learning dual-aircraft coordination path planning passive detection.
在线阅读 下载PDF
基于逐次超松弛技术的Double Speedy Q-Learning算法 被引量:2
12
作者 周琴 罗飞 +2 位作者 丁炜超 顾春华 郑帅 《计算机科学》 CSCD 北大核心 2022年第3期239-245,共7页
Q-Learning是目前一种主流的强化学习算法,但其在随机环境中收敛速度不佳,之前的研究针对Speedy Q-Learning存在的过估计问题进行改进,提出了Double Speedy Q-Learning算法。但Double Speedy Q-Learning算法并未考虑随机环境中存在的自... Q-Learning是目前一种主流的强化学习算法,但其在随机环境中收敛速度不佳,之前的研究针对Speedy Q-Learning存在的过估计问题进行改进,提出了Double Speedy Q-Learning算法。但Double Speedy Q-Learning算法并未考虑随机环境中存在的自循环结构,即代理执行动作时,存在进入当前状态的概率,这将不利于代理在随机环境中学习,从而影响算法的收敛速度。针对Double Speedy Q-Learning中存在的自循环结构,利用逐次超松弛技术对Double Speedy Q-Learning算法的Bellman算子进行改进,提出基于逐次超松弛技术的Double Speedy Q-Learning算法(Double Speedy Q-Learning based on Successive Over Relaxation,DSQL-SOR),进一步提升了Double Speedy Q-Learning算法的收敛速度。通过数值实验将DSQL-SOR与其他算法的实际奖励和期望奖励之间的误差进行对比,实验结果表明,所提算法比现有主流的算法SQL的误差低0.6,比逐次超松弛算法GSQL低0.5,这表明DSQL-SOR算法的性能较其他算法更优。实验同时对DSQL-SOR算法的可拓展性进行测试,当状态空间从10增加到1000时,每次迭代的平均时间增长缓慢,始终维持在10^(-4)数量级上,表明DSQL-SOR的可拓展性较强。 展开更多
关键词 强化学习 Q-learning 马尔可夫决策过程 逐次超松弛迭代法 自循环结构
在线阅读 下载PDF
A guidance method for coplanar orbital interception based on reinforcement learning 被引量:6
13
作者 ZENG Xin ZHU Yanwei +1 位作者 YANG Leping ZHANG Chengming 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2021年第4期927-938,共12页
This paper investigates the guidance method based on reinforcement learning(RL)for the coplanar orbital interception in a continuous low-thrust scenario.The problem is formulated into a Markov decision process(MDP)mod... This paper investigates the guidance method based on reinforcement learning(RL)for the coplanar orbital interception in a continuous low-thrust scenario.The problem is formulated into a Markov decision process(MDP)model,then a welldesigned RL algorithm,experience based deep deterministic policy gradient(EBDDPG),is proposed to solve it.By taking the advantage of prior information generated through the optimal control model,the proposed algorithm not only resolves the convergence problem of the common RL algorithm,but also successfully trains an efficient deep neural network(DNN)controller for the chaser spacecraft to generate the control sequence.Numerical simulation results show that the proposed algorithm is feasible and the trained DNN controller significantly improves the efficiency over traditional optimization methods by roughly two orders of magnitude. 展开更多
关键词 orbital interception reinforcement learning(RL) Markov decision process(MDP) deep neural network(DNN)
在线阅读 下载PDF
Reinforcement learning-based scheduling of multi-battery energy storage system 被引量:1
14
作者 CHENG Guangran DONG Lu +1 位作者 YUAN Xin SUN Changyin 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2023年第1期117-128,共12页
In this paper, a reinforcement learning-based multibattery energy storage system(MBESS) scheduling policy is proposed to minimize the consumers ’ electricity cost. The MBESS scheduling problem is modeled as a Markov ... In this paper, a reinforcement learning-based multibattery energy storage system(MBESS) scheduling policy is proposed to minimize the consumers ’ electricity cost. The MBESS scheduling problem is modeled as a Markov decision process(MDP) with unknown transition probability. However, the optimal value function is time-dependent and difficult to obtain because of the periodicity of the electricity price and residential load. Therefore, a series of time-independent action-value functions are proposed to describe every period of a day. To approximate every action-value function, a corresponding critic network is established, which is cascaded with other critic networks according to the time sequence. Then, the continuous management strategy is obtained from the related action network. Moreover, a two-stage learning protocol including offline and online learning stages is provided for detailed implementation in real-time battery management. Numerical experimental examples are given to demonstrate the effectiveness of the developed algorithm. 展开更多
关键词 multi-battery energy storage system(MBESS) reinforcement learning periodic value iteration data-driven
在线阅读 下载PDF
Recent Advances in Iterative Learning Control 被引量:12
15
作者 Jian-XinXU 《自动化学报》 EI CSCD 北大核心 2005年第1期132-142,共11页
In this paper we review the recent advances in three sub-areas of iterative learning control (ILC): 1) linear ILC for linear processes, 2) linear ILC for nonlinear processes which are global Lipschitz continuous (GLC)... In this paper we review the recent advances in three sub-areas of iterative learning control (ILC): 1) linear ILC for linear processes, 2) linear ILC for nonlinear processes which are global Lipschitz continuous (GLC), and 3) nonlinear ILC for general nonlinear processes. For linear processes, we focus on several basic configurations of linear ILC. For nonlinear processes with linear ILC, we concentrate on the design and transient analysis which were overlooked and missing for a long period. For general classes of nonlinear processes, we demonstrate nonlinear ILC methods based on Lyapunov theory, which is evolving into a new control paradigm. 展开更多
关键词 反复学习系统 线性过程 非线性过程 自动控制系统
在线阅读 下载PDF
A survey of deep learning-based visual question answering 被引量:1
16
作者 HUANG Tong-yuan YANG Yu-ling YANG Xue-jiao 《Journal of Central South University》 SCIE EI CAS CSCD 2021年第3期728-746,共19页
With the warming up and continuous development of machine learning,especially deep learning,the research on visual question answering field has made significant progress,with important theoretical research significanc... With the warming up and continuous development of machine learning,especially deep learning,the research on visual question answering field has made significant progress,with important theoretical research significance and practical application value.Therefore,it is necessary to summarize the current research and provide some reference for researchers in this field.This article conducted a detailed and in-depth analysis and summarized of relevant research and typical methods of visual question answering field.First,relevant background knowledge about VQA(Visual Question Answering)was introduced.Secondly,the issues and challenges of visual question answering were discussed,and at the same time,some promising discussion on the particular methodologies was given.Thirdly,the key sub-problems affecting visual question answering were summarized and analyzed.Then,the current commonly used data sets and evaluation indicators were summarized.Next,in view of the popular algorithms and models in VQA research,comparison of the algorithms and models was summarized and listed.Finally,the future development trend and conclusion of visual question answering were prospected. 展开更多
关键词 computer vision natural language processing visual question answering deep learning attention mechanism
在线阅读 下载PDF
基于禁忌搜索和Q-learning的CR-NOMA系统的功率分配算法 被引量:3
17
作者 周烁 仇润鹤 唐旻俊 《计算机应用》 CSCD 北大核心 2021年第7期2026-2032,共7页
针对下一代移动通信对于高速率和大规模连接的需求,对认知无线电(CR)-非正交多址接入(NOMA)混(PATSQ)算法。首先,认知基站在系统环境中观测并学习用户的功率分配,次用户采用NOMA方式接入授权信道。其次,将功率优化分配问题中的功率分配... 针对下一代移动通信对于高速率和大规模连接的需求,对认知无线电(CR)-非正交多址接入(NOMA)混(PATSQ)算法。首先,认知基站在系统环境中观测并学习用户的功率分配,次用户采用NOMA方式接入授权信道。其次,将功率优化分配问题中的功率分配、信道状态和总传输速率分别表述为马尔可夫决策过程中的动作、状态和奖励,通过结合禁忌搜索和Q-learning的方法来解决该马尔可夫决策过程问题并得到一个最优的禁忌Q表。最后,在主次用户服务质量(QoS)和最大发射功率的约束下,认知基站通过查找禁忌Q表得到最优的功率分配因子,实现系统中次用户总传输速率的最大化。仿真结果表明,在总功率相同条件下,所提算法在次用户总传输速率和系统容纳用户数量上要优于认知移动无线网络(CMRN)算法、次用户预解码(SFDM)算法以及传统等功率分配算法。 展开更多
关键词 非正交多址接入 认知无线电 功率分配 禁忌搜索 Q-learning 服务质量 马尔可夫决策过程
在线阅读 下载PDF
Multi-task Coalition Parallel Formation Strategy Based on Reinforcement Learning 被引量:6
18
作者 JIANG Jian-Guo SU Zhao-Pin +1 位作者 QI Mei-Bin ZHANG Guo-Fu 《自动化学报》 EI CSCD 北大核心 2008年第3期349-352,共4页
代理人联盟是代理人协作和合作的一种重要方式。形成一个联盟,代理人能提高他们的能力解决问题并且获得更多的实用程序。在这份报纸,新奇多工联盟平行形成策略被介绍,并且多工联盟形成的过程是一个 Markov 决定过程的结论理论上被证... 代理人联盟是代理人协作和合作的一种重要方式。形成一个联盟,代理人能提高他们的能力解决问题并且获得更多的实用程序。在这份报纸,新奇多工联盟平行形成策略被介绍,并且多工联盟形成的过程是一个 Markov 决定过程的结论理论上被证明。而且,学习的加强被用来解决多工联盟平行的代理人行为策略,和这个过程形成被描述。在多工面向的领域,策略罐头有效地并且平行形式多工联盟。 展开更多
关键词 强化学习 多任务合并 平行排列 马尔可夫决策过程
在线阅读 下载PDF
Q-learning算法优化的SVDPP推荐算法 被引量:4
19
作者 周运腾 张雪英 +3 位作者 李凤莲 刘书昌 焦江丽 田豆 《计算机工程》 CAS CSCD 北大核心 2021年第2期46-51,共6页
为进一步改善个性化推荐系统的推荐效果,通过使用强化学习方法对SVDPP算法进行优化,提出一种新的协同过滤推荐算法。考虑用户评分的时间效应,将推荐问题转化为马尔科夫决策过程。在此基础上,利用Q-learning算法构建融合时间戳信息的用... 为进一步改善个性化推荐系统的推荐效果,通过使用强化学习方法对SVDPP算法进行优化,提出一种新的协同过滤推荐算法。考虑用户评分的时间效应,将推荐问题转化为马尔科夫决策过程。在此基础上,利用Q-learning算法构建融合时间戳信息的用户评分优化模型,同时通过预测评分取整填充和优化边界补全方法预测缺失值,以解决数据稀疏性问题。实验结果显示,该算法的均方根误差较SVDPP算法降低了0.005 6,表明融合时间戳并采用强化学习方法进行推荐性能优化是可行的。 展开更多
关键词 协同过滤 奇异值分解 强化学习 马尔科夫决策过程 Q-learning算法
在线阅读 下载PDF
Error assessment of laser cutting predictions by semi-supervised learning
20
作者 Mustafa Zaidi Imran Amin +1 位作者 Ahmad Hussain Nukman Yusoff 《Journal of Central South University》 SCIE EI CAS 2014年第10期3736-3745,共10页
Experimentation data of perspex glass sheet cutting, using CO2 laser, with missing values were modelled with semi-supervised artificial neural networks. Factorial design of experiment was selected for the verification... Experimentation data of perspex glass sheet cutting, using CO2 laser, with missing values were modelled with semi-supervised artificial neural networks. Factorial design of experiment was selected for the verification of orthogonal array based model prediction. It shows improvement in modelling of edge quality and kerf width by applying semi-supervised learning algorithm, based on novel error assessment on simulations. The results are expected to depict better prediction on average by utilizing the systematic randomized techniques to initialize the neural network weights and increase the number of initialization. Missing values handling is difficult with statistical tools and supervised learning techniques; on the other hand, semi-supervised learning generates better results with the smallest datasets even with missing values. 展开更多
关键词 semi-supervised learning training algorithm kerf width edge quality laser cutting process artificial neural network(ANN)
在线阅读 下载PDF
上一页 1 2 125 下一页 到第
使用帮助 返回顶部