期刊文献+
共找到142篇文章
< 1 2 8 >
每页显示 20 50 100
因果时空语义驱动的深度强化学习抽象建模方法
1
作者 田丽丽 杜德慧 +2 位作者 聂基辉 陈逸康 李荥达 《软件学报》 北大核心 2025年第8期3637-3654,共18页
随着智能信息物理融合系统(intelligent cyber-physical system,ICPS)的快速发展,智能技术在感知、决策、规控等方面的应用日益广泛.其中,深度强化学习因其在处理复杂的动态环境方面的高效性,已被广泛用于ICPS的控制组件中.然而,由于运... 随着智能信息物理融合系统(intelligent cyber-physical system,ICPS)的快速发展,智能技术在感知、决策、规控等方面的应用日益广泛.其中,深度强化学习因其在处理复杂的动态环境方面的高效性,已被广泛用于ICPS的控制组件中.然而,由于运行环境的开放性和ICPS系统的复杂性,深度强化学习在学习过程中需要对复杂多变的状态空间进行探索,这极易导致决策生成时效率低下和泛化性不足等问题.目前对于该问题的常见解决方法是将大规模的细粒度马尔可夫决策过程(Markov decision process,MDP)抽象为小规模的粗粒度马尔可夫决策过程,从而简化模型的计算复杂度并提高求解效率.但这些方法尚未考虑如何保证原状态的时空语义信息、聚类抽象的系统空间和真实系统空间之间的语义一致性问题.针对以上问题,提出基于因果时空语义的深度强化学习抽象建模方法.首先,提出反映时间和空间价值变化分布的因果时空语义,并在此基础上对状态进行双阶段语义抽象以构建深度强化学习过程的抽象马尔可夫模型;其次,结合抽象优化技术对抽象模型进行调优,以减少抽象状态与相应具体状态之间的语义误差;最后,结合车道保持、自适应巡航、交叉路口会车等案例进行了大量的实验,并使用验证器PRISM对模型进行评估分析,结果表明所提出的抽象建模技术在模型的抽象表达能力、准确性及语义等价性方面具有较好的效果. 展开更多
关键词 深度强化学习 抽象建模 因果时空语义 智能信息物理融合系统(ICPS) 马尔可夫决策过程(MDP)
在线阅读 下载PDF
基于深度强化学习的中央空调冷水机组无模型控制 被引量:1
2
作者 王萌 傅启明 +3 位作者 何坤 陈建平 陆悠 王蕴哲 《计算机工程与设计》 北大核心 2025年第5期1526-1534,共9页
针对当前中央空调冷水机组优化问题中基于模型控制对模型精确度依赖高和模型维护困难等问题,提出一种基于优先经验回放的深度强化学习无模型控制方法。将优化控制建模为马尔可夫决策过程,利用时间差分误差和总和树改进经验回放机制,提... 针对当前中央空调冷水机组优化问题中基于模型控制对模型精确度依赖高和模型维护困难等问题,提出一种基于优先经验回放的深度强化学习无模型控制方法。将优化控制建模为马尔可夫决策过程,利用时间差分误差和总和树改进经验回放机制,提高样本利用效率,设计兼顾室内舒适性和节能需求的奖励函数。基于实测历史数据构建仿真平台,用于方法验证。实验结果表明,在保证舒适度的前提下,该方法节能性优于规则控制,接近于模型控制并具有更快的收敛性。 展开更多
关键词 深度强化学习 优先经验回放 无模型控制 马尔可夫决策过程 冷水机组优化 舒适性保持 节能优化
在线阅读 下载PDF
基于MADDPG的多无人机协同攻击方法 被引量:1
3
作者 张波 刘满国 刘梦焱 《弹箭与制导学报》 北大核心 2025年第3期344-350,共7页
多无人机协同完成特定打击任务是未来无人机军事领域发展的重要方向。针对多无人机协同攻击问题,构建典型对抗场景。将多无人机协同攻击问题建模成分布式部分可观测马尔可夫决策过程(Dec-POMDP),设计独特奖励函数,采用多智能体深度确定... 多无人机协同完成特定打击任务是未来无人机军事领域发展的重要方向。针对多无人机协同攻击问题,构建典型对抗场景。将多无人机协同攻击问题建模成分布式部分可观测马尔可夫决策过程(Dec-POMDP),设计独特奖励函数,采用多智能体深度确定性策略梯度(MADDPG)算法训练攻击策略。使用蒙特卡洛法分析仿真实验,结果表明在该多智能体强化学习算法训练之后,特定对抗场景下多无人机协同攻击任务完成率达到82.9%。 展开更多
关键词 多智能体 深度强化学习 分布式部分可观测马尔可夫决策过程(Dec-POMDP) 多智能体深度确定性策略梯度算法(MADDPG) 无人机集群
在线阅读 下载PDF
基于MADDPG的分布式测控网络群切换算法
4
作者 王慧琳 刘胜利 +1 位作者 谢岸宏 朱立东 《系统工程与电子技术》 北大核心 2025年第6期2036-2046,共11页
受到战争等特殊环境下部分节点导航拒止、节点移动性与环境干扰所带来的影响,快速进行测控网络拓扑重构是保证连续测控关键。为了解决上述问题,针对多体制无人集群测控网络的场景,提出一种基于多智能体深度确定性策略梯度(multi-agent d... 受到战争等特殊环境下部分节点导航拒止、节点移动性与环境干扰所带来的影响,快速进行测控网络拓扑重构是保证连续测控关键。为了解决上述问题,针对多体制无人集群测控网络的场景,提出一种基于多智能体深度确定性策略梯度(multi-agent deep deterministic policy gradient,MADDPG)的分布式多智能体测控网络群切换算法。该算法运用局部可观测马尔可夫决策模型,并考虑最小连通度、能耗与测控精度设计奖励函数,构建可靠的测控定位系统。仿真结果表明,该算法在不同的干扰环境下能有效抵抗外界干扰,保证测控定位的正常运行,与传统切换算法相比切换成功率提升12%以上。 展开更多
关键词 拓扑重构 群切换 测控定位 局部可观测马尔可夫决策 最小连通度
在线阅读 下载PDF
基于深度强化学习的动态核应急防护行动优化决策模型研发
5
作者 李鸣野 吕明华 +6 位作者 张俊芳 姚仁太 郭欢 牛嫣静 赵丹 李煜 田芷洁 《核电子学与探测技术》 北大核心 2025年第10期1488-1499,共12页
针对核事故情境下复杂多变的防护行动决策问题,本文提出一种融合马尔可夫决策过程与深度强化学习的动态优化模型。该模型包含执行环境模块、深度强化学习网络模块和优化决策模块三大模块,通过奖励函数引导机制与状态映射机制实现路径优... 针对核事故情境下复杂多变的防护行动决策问题,本文提出一种融合马尔可夫决策过程与深度强化学习的动态优化模型。该模型包含执行环境模块、深度强化学习网络模块和优化决策模块三大模块,通过奖励函数引导机制与状态映射机制实现路径优化、隐蔽等策略组合的智能生成。在核事故后果评价系统模拟条件下,该模型经约200轮训练后实现收敛,训练时长控制在10 min以内,可有效降低剂量暴露、提升疏散效率并优化路径合理性。研究结果验证了该模型在复杂核应急响应中的策略适应性与优化能力,为构建智能化核事故辅助决策系统提供了方法依据与工程参考。 展开更多
关键词 防护行动 马尔可夫决策过程 深度强化学习 动态优化
在线阅读 下载PDF
非时齐部分可观察Markov决策规划的最优策略问题 被引量:1
6
作者 张继红 郭世贞 章芸 《运筹学学报》 CSCD 北大核心 2004年第2期81-87,共7页
本文讨论了一类非时齐部分可观察Markov决策模型.在不改变状态空间可列 性的条件下,把该模型转化为[5]中的一般化折扣模型,从而解决了其最优策略问题,并 且得到了该模型的有限阶段逼近算法,其中该算法涉及的状态是可列的.
关键词 部分可观察markov决策规划 最优策略 非时齐 折扣模型 逼近
在线阅读 下载PDF
随机模型检测连续时间Markov过程 被引量:2
7
作者 钮俊 曾国荪 +1 位作者 吕新荣 徐畅 《计算机科学》 CSCD 北大核心 2011年第9期112-115,125,共5页
功能正确和性能可满足是复杂系统可信要求非常重要的两个方面。从定性验证和定量分析相结合的角度,对复杂并发系统进行功能验证和性能分析,统一地评估系统是否可信。连续时间Markov决策过程CTMDP(Continu-ous-time Markov decision proc... 功能正确和性能可满足是复杂系统可信要求非常重要的两个方面。从定性验证和定量分析相结合的角度,对复杂并发系统进行功能验证和性能分析,统一地评估系统是否可信。连续时间Markov决策过程CTMDP(Continu-ous-time Markov decision process)能够统一刻画复杂系统的概率选择、随机时间及不确定性等重要特征。提出用CT-MDP作为系统定性验证和定量分析模型,将复杂系统的功能验证和性能分析转化为CTMDP中的可达概率求解,并证明验证过程的正确性,最终借助模型检测器MRMC(Markov Reward Model Checker)实现模型检测。理论分析表明,提出的针对CTMDP模型的验证需求是必要的,验证思路和方法具有可行性。 展开更多
关键词 功能性能 连续时间markov决策过程 模型检测 可信验证 可达概率
在线阅读 下载PDF
半Markov决策过程折扣模型与平均模型之间的关系 被引量:1
8
作者 殷保群 李衍杰 +2 位作者 唐昊 代桂平 奚宏生 《控制理论与应用》 EI CAS CSCD 北大核心 2006年第1期65-68,共4页
首先分别在折扣代价与平均代价性能准则下,讨论了一类半M arkov决策问题.基于性能势方法,导出了由最优平稳策略所满足的最优性方程.然后讨论了两种模型之间的关系,表明了平均模型的有关结论,可以通过对折扣模型相应结论取折扣因子趋于... 首先分别在折扣代价与平均代价性能准则下,讨论了一类半M arkov决策问题.基于性能势方法,导出了由最优平稳策略所满足的最优性方程.然后讨论了两种模型之间的关系,表明了平均模型的有关结论,可以通过对折扣模型相应结论取折扣因子趋于零时的极限来得到. 展开更多
关键词 markov决策过程 折扣模型 平均模型 最优性方程 最优平稳策略
在线阅读 下载PDF
基于Markov决策过程的驾驶员行为模型 被引量:3
9
作者 许骏 李一兵 《汽车工程》 EI CSCD 北大核心 2008年第1期14-16,60,共4页
将驾驶员-汽车看作统一的人机系统,利用驾驶员驾驶过程的本质是决策过程的性质,通过确定系统的决策时刻、决策报酬、状态转移速率和概率、抽象驾驶员的行为集合等建立了基于Markov决策过程的驾驶员行为模型,最后对所建模型进行了计算机... 将驾驶员-汽车看作统一的人机系统,利用驾驶员驾驶过程的本质是决策过程的性质,通过确定系统的决策时刻、决策报酬、状态转移速率和概率、抽象驾驶员的行为集合等建立了基于Markov决策过程的驾驶员行为模型,最后对所建模型进行了计算机仿真。 展开更多
关键词 驾驶员行为 markov决策过程 模型 人机系统
在线阅读 下载PDF
面向关系建模的合作多智能体深度强化学习综述 被引量:1
10
作者 熊丽琴 陈希亮 +2 位作者 赖俊 骆西建 曹雷 《计算机工程与应用》 北大核心 2025年第18期41-60,共20页
近年来,多智能体深度强化学习发展迅速并被广泛用于各种多智能体协同任务,已经成为人工智能领域的一个研究热点,但如何实现多智能体高效协同仍是其当前面临的重大挑战之一。作为一种流行的解决方案,面向关系建模的合作多智能体深度强化... 近年来,多智能体深度强化学习发展迅速并被广泛用于各种多智能体协同任务,已经成为人工智能领域的一个研究热点,但如何实现多智能体高效协同仍是其当前面临的重大挑战之一。作为一种流行的解决方案,面向关系建模的合作多智能体深度强化学习方法通过刻画智能体与智能体、智能体与系统整体的关系来准确捕获并利用智能体的个体贡献和智能体间相互作用以有效促进多智能体协同,具有重要研究意义和应用价值。简要介绍多智能体系统中存在的关系和多智能体深度强化学习的基础知识;从关系建模层次的角度出发将面向关系建模的合作多智能体深度强化学习算法分为基于个体间关系建模、基于个体与全局间关系建模以及基于多尺度关系建模这三类,并对其基本原理及优缺点进行全面梳理;着重介绍了其在无人集群控制、任务与资源分配、智能交通运输等领域中的应用情况。最后,总结当前面临的主要挑战并对未来研究方向进行展望。 展开更多
关键词 深度强化学习 多智能体强化学习 部分可观测马尔科夫决策过程 多智能体协同 关系建模
在线阅读 下载PDF
基于改进Transformer的多智能体供应链库存管理方法
11
作者 朴明杰 张冬冬 +2 位作者 卢鹄 李汝鹏 葛小丽 《计算机科学》 北大核心 2025年第S1期186-195,共10页
有效的供应链库存管理对诸如民用飞机和汽车制造等大规模制造业至关重要,它能确保高效的生产运作。通常情况下,主制造商制定年度库存管理计划,并根据实际生产进度,在某些物料接近临界库存水平时与供应商进行联系。但实际生产情况的变化... 有效的供应链库存管理对诸如民用飞机和汽车制造等大规模制造业至关重要,它能确保高效的生产运作。通常情况下,主制造商制定年度库存管理计划,并根据实际生产进度,在某些物料接近临界库存水平时与供应商进行联系。但实际生产情况的变化可能会导致年度库存管理计划的改变,因此根据实际生产情况和库存水平对未来物料采购情况进行决策相对更为灵活与高效。近年来,许多研究者关注采用强化学习方法来研究库存管理问题。当前的方法在解决具有多节点多物料模式的民用飞机制造供应链库存管理问题时虽然能够一定程度上提供高效管理,但是带来了较高的复杂度。为解决这一问题,将问题形式化为一个部分可观察马尔可夫决策过程模型,并提出了一种基于改进Transformer的多智能体供应链库存管理方法。该方法基于多智能体强化学习序列决策的本质,将多智能体强化学习问题转化为编码器-解码器架构的序列建模问题,从逻辑上降低算法的复杂度。实验结果表明,相较于现有的基于强化学习的方法,所提方法在保持性能相近的基础上,于复杂度方面约有90%的改善。 展开更多
关键词 多智能体强化学习 飞机供应链库存管理 部分可观察马尔可夫决策过程 TRANSFORMER
在线阅读 下载PDF
基于POMDP模型的检修与备件库存联合优化
12
作者 汪凯 顾刘栋 周一帆 《中国机械工程》 北大核心 2025年第8期1853-1863,共11页
在维修与备件库存联合优化时,已有的研究大多假设系统状态监测是完美的,忽略了实际应用中的误差。为了解决该问题,以包含不完美状态监测和固定检修周期的单部件系统为研究对象,考虑该系统的视情维修(CBM)与备件库存管理问题,采用部分可... 在维修与备件库存联合优化时,已有的研究大多假设系统状态监测是完美的,忽略了实际应用中的误差。为了解决该问题,以包含不完美状态监测和固定检修周期的单部件系统为研究对象,考虑该系统的视情维修(CBM)与备件库存管理问题,采用部分可观测的马尔可夫决策过程(POMDP)对系统进行建模,并推导系统状态转移概率。为了处理复杂的信念状态空间,提高算法求解效率,采用了一种改进的Perseus算法。在数值案例部分验证了该算法的有效性,并对最优策略结构进行分析,结果表明:信念状态相比于观测值能相对合理地表示状态信息,同时也对比了有无备件库存的情况,证明了备件库存的有效性。 展开更多
关键词 不完美状态监测 部分可观测的马尔可夫决策过程 信念状态 维修与备件库存联合优化
在线阅读 下载PDF
基于深度强化学习的敏捷卫星对地观测任务调度两阶段方法
13
作者 张任驰 丁国绅 +1 位作者 段崇 夏维 《火力与指挥控制》 北大核心 2025年第10期63-71,80,共10页
针对敏捷卫星对地观测任务可见时间窗多且冲突复杂所导致任务难以调度的问题,提出一种基于深度强化学习的两阶段卫星任务调度方法。通过对卫星敏捷能力的剥夺和再赋予将原问题转换为常规卫星任务调度问题的“退化”阶段和已有任务调度... 针对敏捷卫星对地观测任务可见时间窗多且冲突复杂所导致任务难以调度的问题,提出一种基于深度强化学习的两阶段卫星任务调度方法。通过对卫星敏捷能力的剥夺和再赋予将原问题转换为常规卫星任务调度问题的“退化”阶段和已有任务调度方案在敏捷能力加持下的再调整问题的“增强”阶段,并提出深度补强网络作为Q网络的深度强化学习算法求解增强阶段。通过仿真实验表明,该两阶段方法在多种规模场景下调度卫星对地观测任务效果更优。 展开更多
关键词 卫星任务规划 敏捷卫星 调度 深度强化学习 两阶段方法 马尔可夫决策过程
在线阅读 下载PDF
基于Markov决策过程的列控系统定量安全分析方法 被引量:1
14
作者 周果 赵会兵 《铁道学报》 EI CAS CSCD 北大核心 2016年第2期74-81,共8页
为了在列控系统的设计阶段和安全评估阶段对系统隐患进行把握,对系统的设计进行定量安全分析是至关重要的。定量分析的结果可以用来判断和比较设计的优劣,也可用来评估隐患的风险,并根据分析结果判断所采取的隐患控制措施是否使隐患的... 为了在列控系统的设计阶段和安全评估阶段对系统隐患进行把握,对系统的设计进行定量安全分析是至关重要的。定量分析的结果可以用来判断和比较设计的优劣,也可用来评估隐患的风险,并根据分析结果判断所采取的隐患控制措施是否使隐患的风险被控制在可接受的范围内。本文应用以Markov决策过程为基础的建模方法,对列控系统中的双车追踪场景进行系统行为建模,集成系统正常行为和失效行为,提出综合系统行为模型CBM,并通过概率模型检验工具PRISM对危险失效概率进行准确计算,提出列控系统定量安全分析方法。 展开更多
关键词 列控系统 定量安全分析 markov决策过程 概率模型检验
在线阅读 下载PDF
干扰惰性序列的连续决策模型模糊测试
15
作者 吴泊逾 王凯锐 +1 位作者 王亚文 王俊杰 《软件学报》 北大核心 2025年第10期4645-4659,共15页
人工智能技术的应用已经从分类、翻译、问答等相对静态的任务延伸到自动驾驶、机器人控制、博弈等需要和环境进行一系列“交互-行动”才能完成的相对动态的任务.执行这类任务的模型核心是连续决策算法,由于面临更高的环境和交互的不确定... 人工智能技术的应用已经从分类、翻译、问答等相对静态的任务延伸到自动驾驶、机器人控制、博弈等需要和环境进行一系列“交互-行动”才能完成的相对动态的任务.执行这类任务的模型核心是连续决策算法,由于面临更高的环境和交互的不确定性,而且这些任务往往是安全攸关的系统,其测试技术面临极大的挑战.现有的智能算法模型测试技术主要集中在单一模型的可靠性、复杂任务多样性测试场景生成、仿真测试等方向,对连续决策模型的“交互-行动”决策序列没有关注,导致无法适应,或者成本效益低下.提出一个干预惰性“交互-行动”决策序列执行的模糊测试方法IIFuzzing,在模糊测试框架中,通过学习“交互-行动”决策序列模式,预测不会触发失效事故的惰性“交互-行动”决策序列,并中止这类序列的测试执行,以提高测试效能.在4种常见的测试配置中进行实验评估,结果表明,与最新的针对连续决策模型的模糊测试相比,IIFuzzing可以在相同时间内多探测16.7%–54.5%的失效事故,并且事故的多样性也优于基线方法. 展开更多
关键词 连续决策模型 马尔可夫决策过程 模糊测试
在线阅读 下载PDF
基于Markov决策过程的输变电设备最佳检修决策 被引量:18
16
作者 贾京苇 侯慧娟 +3 位作者 杜修明 段大鹏 盛戈皞 江秀臣 《高电压技术》 EI CAS CSCD 北大核心 2017年第7期2323-2330,共8页
为解决现有输变电设备检修决策很大程度依赖于决策人员经验的问题,应用Markov决策过程为检修决策提供定量、具体的决策依据。首先通过Markov过程求解设备的状态转移概率;然后运用策略迭代法对模型最优决策进行求解;最后将数据代入检修... 为解决现有输变电设备检修决策很大程度依赖于决策人员经验的问题,应用Markov决策过程为检修决策提供定量、具体的决策依据。首先通过Markov过程求解设备的状态转移概率;然后运用策略迭代法对模型最优决策进行求解;最后将数据代入检修决策模型中,改变故障损失得到决策结果的变化。比较决策变化对应的设备故障损失和设备稳态概率可得知:所建立的基于状态的检修(CBM)模型适用于安装了在线监测装置的设备,而基于检测的检修(IBM)模型适用于无在线监测装置的设备;最优决策从维修成本最小的决策过渡到最后每次决策时都选择大修,整个变化过程证明了应用Markov决策可以折中维修成本和故障损失得到经济最优决策。研究结果可为检修决策人员提供定量的检修计划。 展开更多
关键词 输变电设备 检修决策 检修模型 markov过程 markov决策过程 策略迭代法
在线阅读 下载PDF
部分可观测Markov环境下的激励学习综述
17
作者 谢丽娟 陈焕文 《长沙电力学院学报(自然科学版)》 2002年第2期23-27,共5页
对智能体在不确定环境下的学习与规划问题的激励学习技术进行了综述 .首先介绍了用于描述隐状态问题的部分可观测Markov决策理论 (POMDPs) ,在简单回顾其它POMDP求解技术后 ,重点讨论环境模型事先未知的激励学习技术 ,包括两类 :一类为... 对智能体在不确定环境下的学习与规划问题的激励学习技术进行了综述 .首先介绍了用于描述隐状态问题的部分可观测Markov决策理论 (POMDPs) ,在简单回顾其它POMDP求解技术后 ,重点讨论环境模型事先未知的激励学习技术 ,包括两类 :一类为基于状态的值函数学习 ;一类为策略空间的直接搜索 .最后分析了这些方法尚存在的问题 ,并指出了未来可能的研究方向 . 展开更多
关键词 激励学习 部分可观测markov决策过程 机器学习 人工智能 智能体 值函数学习 策略空间
在线阅读 下载PDF
考虑个体差异的系统退化建模与半Markov过程维修决策 被引量:3
18
作者 李琦 李婧 +1 位作者 蒋增强 边靖媛 《计算机集成制造系统》 EI CSCD 北大核心 2020年第2期331-339,共9页
为了在采样不完全、个体差异明显的条件下对缓慢退化系统的维修策略进行研究,针对具有个体差异的缓慢退化系统,选择线性混合效应模型进行退化建模,并利用自回归方法对模型残差中的时间序列相关性进行调节,提高了模型的准确性。在此基础... 为了在采样不完全、个体差异明显的条件下对缓慢退化系统的维修策略进行研究,针对具有个体差异的缓慢退化系统,选择线性混合效应模型进行退化建模,并利用自回归方法对模型残差中的时间序列相关性进行调节,提高了模型的准确性。在此基础上构造合理的状态空间和维修决策空间,求解退化过程的状态转移概率,并使用策略迭代算法求解最小化单位时间长期预计成本的最优化维修策略。以激光退化实际案例求解了基于半Markov决策过程的维修策略,并与经典的基于役龄的维修策略和周期检查的维修策略进行比较,证明了所提方法能够更加精确地刻画系统的退化过程,并可帮助制定兼顾成本与可靠性的维修策略。 展开更多
关键词 markov决策过程 缓慢退化系统 线性混合效应模型 策略迭代算法
在线阅读 下载PDF
Modeling of UAV path planning based on IMM under POMDP framework 被引量:4
19
作者 YANG Qiming ZHANG Jiandong SHI Guoqing 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2019年第3期545-554,共10页
In order to enhance the capability of tracking targets autonomously of unmanned aerial vehicle (UAV), the partially observable Markov decision process (POMDP) model for UAV path planning is established based on the PO... In order to enhance the capability of tracking targets autonomously of unmanned aerial vehicle (UAV), the partially observable Markov decision process (POMDP) model for UAV path planning is established based on the POMDP framework. The elements of the POMDP model are analyzed and described. The state transfer law in the model can be described by the method of interactive multiple model (IMM) due to the diversity of the target motion law, which is used to switch the motion model to accommodate target maneuvers, and hence improving the tracking accuracy. The simulation results show that the model can achieve efficient planning for the UAV route, and effective tracking for the target. Furthermore, the path planned by this model is more reasonable and efficient than that by using the single state transition law. 展开更多
关键词 partially observable markov decision process (POMDP) interactive multiple model (IMM) filtering path planning target tracking state transfer law
在线阅读 下载PDF
Probabilistic Analysis and Multicriteria Decision for Machine Assignment Problem with General Service Times
20
作者 Wang, Jing 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 1994年第1期53-61,共9页
In this paper we carried out a probabilistic analysis for a machine repair system with a general service-time distribution by means of generalized Markov renewal processes. Some formulas for the steady-state performan... In this paper we carried out a probabilistic analysis for a machine repair system with a general service-time distribution by means of generalized Markov renewal processes. Some formulas for the steady-state performance measures. such as the distribution of queue sizes, average queue length, degree of repairman utilization and so on. are then derived. Finally, the machine repair model and a multiple critcria decision-making method are applied to study machine assignment problem with a general service-time distribution to determine the optimum number of machines being serviced by one repairman. 展开更多
关键词 Machine assignment problem Queueing model Multicriteria decision markov processes
在线阅读 下载PDF
上一页 1 2 8 下一页 到第
使用帮助 返回顶部