期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
弗兰克·诺里斯《麦克梯格》中的拜金主义探讨 被引量:1
1
作者 龙晓云 杜宏飞 《语文建设》 北大核心 2014年第10Z期26-27,共2页
弗兰克·诺里斯是美国自然主义之父,他通过《麦克梯格》深入挖掘了当时动荡不安的社会中拜金主义所引发的内心空虚与精神痛苦,并揭示了形成拜金主义的时代背景与思想根源,从而让读者更好地理解诺里斯对人、社会以及金钱关系的理解... 弗兰克·诺里斯是美国自然主义之父,他通过《麦克梯格》深入挖掘了当时动荡不安的社会中拜金主义所引发的内心空虚与精神痛苦,并揭示了形成拜金主义的时代背景与思想根源,从而让读者更好地理解诺里斯对人、社会以及金钱关系的理解与态度。 展开更多
关键词 弗兰克·诺里斯 《麦克梯格 拜金主义
在线阅读 下载PDF
梯格形自适应控制
2
作者 王正志 张良起 《国防科技大学学报》 EI CAS CSCD 北大核心 1989年第3期103-112,共10页
本文讨论并解决了具有d步时延的多变量系统的梯格形自适应控制问题。为此,把自适应控制下的闭环系统嵌入到ARMA模型中,采用梯格算法进行预报。为了考虑d步时延控制系统,采用简捷方法推导了d步梯格预报公式,并给出了控制量的确定方法。... 本文讨论并解决了具有d步时延的多变量系统的梯格形自适应控制问题。为此,把自适应控制下的闭环系统嵌入到ARMA模型中,采用梯格算法进行预报。为了考虑d步时延控制系统,采用简捷方法推导了d步梯格预报公式,并给出了控制量的确定方法。采用梯格形自适应控制可方便地调节模型的阶次,从而可以克服对象阶次不准引起的自适应控制失效的问题。 展开更多
关键词 自适应控制 梯格算法 阶次调节
在线阅读 下载PDF
梯格形自适应控制
3
作者 王正志 张良起 《自动化学报》 EI CSCD 北大核心 1990年第1期23-30,共8页
本文讨论并解决了具有d步时延的多变量系统的梯格形自适应控制问题。为此,把自适应控制下的闭环系统嵌入到ARMA模型中,采用梯格算法进行预报;用简捷方法推导了d步梯格预报公式,并给出了控制量的确定方法。采用梯格自适应控制可方便地调... 本文讨论并解决了具有d步时延的多变量系统的梯格形自适应控制问题。为此,把自适应控制下的闭环系统嵌入到ARMA模型中,采用梯格算法进行预报;用简捷方法推导了d步梯格预报公式,并给出了控制量的确定方法。采用梯格自适应控制可方便地调节模型阶次,从而可以克服对象阶次不准引起的自适应控制失效问题。 展开更多
关键词 自适应控制 梯格算法 阶次调节
在线阅读 下载PDF
多维AR模型梯格滤波的一般形式及其在不同数据窗下的实现
4
作者 茅宁 《国防科技大学学报》 EI CAS CSCD 北大核心 1989年第1期50-58,共9页
本文以基本的矩阵代数为工具,对于多维AR模型推导了梯格滤波的一般公式。在此基础上,可方便地得到在不同数据窗下(如预加窗、协方差窗和滑动窗)的实现算法。
关键词 梯格滤波 数据窗 多维AR模型
在线阅读 下载PDF
Solving Stackelberg prediction games using inexact hyper-gradient methods
5
作者 SHI Xu WANG Jiulin +1 位作者 JIANG Rujun SONG Weizheng 《运筹学学报(中英文)》 北大核心 2025年第3期93-123,共31页
The Stackelberg prediction game(SPG)is a bilevel optimization frame-work for modeling strategic interactions between a learner and a follower.Existing meth-ods for solving this problem with general loss functions are ... The Stackelberg prediction game(SPG)is a bilevel optimization frame-work for modeling strategic interactions between a learner and a follower.Existing meth-ods for solving this problem with general loss functions are computationally expensive and scarce.We propose a novel hyper-gradient type method with a warm-start strategy to address this challenge.Particularly,we first use a Taylor expansion-based approach to obtain a good initial point.Then we apply a hyper-gradient descent method with an ex-plicit approximate hyper-gradient.We establish the convergence results of our algorithm theoretically.Furthermore,when the follower employs the least squares loss function,our method is shown to reach an e-stationary point by solving quadratic subproblems.Numerical experiments show our algorithms are empirically orders of magnitude faster than the state-of-the-art. 展开更多
关键词 Stackelberg prediction game approximate hyper-gradient bilevel opti-mization
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部