本文对很广的一类非线性系统在其数学模型与参数未知时,采用闭环 D 型迭代学习算法,使其被控系统的输出很快地收敛于给定的轨迹.并分析了开、闭环学习的机理,给出了闭环 D 型算法的收敛条件及证明.仿真结果表明其收敛速度远高于由 Arimo...本文对很广的一类非线性系统在其数学模型与参数未知时,采用闭环 D 型迭代学习算法,使其被控系统的输出很快地收敛于给定的轨迹.并分析了开、闭环学习的机理,给出了闭环 D 型算法的收敛条件及证明.仿真结果表明其收敛速度远高于由 Arimoto 等人提出的开环学习算法.展开更多
1 M-P神经元模型的工作原理和几何意义
1943年,MoCulloch和Pitts[1]根据神经元传递规律,第一次提出了神经元的数学模型.M-P神经元模型一直沿用至今,它对神经网络的发展起到了奠基性的作用.每个神经元的状态由M-P方程决定:S=f(∑W X -θ)...1 M-P神经元模型的工作原理和几何意义
1943年,MoCulloch和Pitts[1]根据神经元传递规律,第一次提出了神经元的数学模型.M-P神经元模型一直沿用至今,它对神经网络的发展起到了奠基性的作用.每个神经元的状态由M-P方程决定:S=f(∑W X -θ),θ为阈值,f为激励函数,一般取符号函数.令:它代表了n维空间中,以X为坐标变量,以W为坐标系数,θ为常数项的一个超平面.当样本点X落入超平面的正半区,即I(X)>0时,有f(I)=1;当样本点X落入超平面的负半区,即I(X)<0时,有f(I)=0.从分类的角度看,一个神经元按输入将样本划分成为两类(0和1).现在广泛使用的BP模型采用Sigmoid函数作为激励函数,但是它没有改变神经元分类的本质.神经网络实际上就是多个神经元组织起来的一种网状结构.展开更多
本文对一般非线性系统,提出了三种高阶迭代学习控制算法:(Ⅰ)u_(h+1)=sum from j=1 to r(P_ju_(k-j+1)+Г_je_(h-j+1));(Ⅱ)u_(k+1)=sum from j=1 to r(P_ju_(k-j+1)+F_je_(k-j+1));(Ⅲ)u_(k+1)=sum from j=1 to r{P_ju_(k-j+1)+(Г_j+F...本文对一般非线性系统,提出了三种高阶迭代学习控制算法:(Ⅰ)u_(h+1)=sum from j=1 to r(P_ju_(k-j+1)+Г_je_(h-j+1));(Ⅱ)u_(k+1)=sum from j=1 to r(P_ju_(k-j+1)+F_je_(k-j+1));(Ⅲ)u_(k+1)=sum from j=1 to r{P_ju_(k-j+1)+(Г_j+F_jd/(dt))e_(k-j+1)},其中u_(k+1)=u_(k+1)(t)表示系统第k+1次运行时的输入;e_k=y_k-y_d;y_d是系统所期望的输出;y_k是系统第k次运行时的输出;P_j,Г_j,F_j(j=1,…,r)是常数阵;进而给出了比较弱的收敛性条件。展开更多
文摘1 M-P神经元模型的工作原理和几何意义
1943年,MoCulloch和Pitts[1]根据神经元传递规律,第一次提出了神经元的数学模型.M-P神经元模型一直沿用至今,它对神经网络的发展起到了奠基性的作用.每个神经元的状态由M-P方程决定:S=f(∑W X -θ),θ为阈值,f为激励函数,一般取符号函数.令:它代表了n维空间中,以X为坐标变量,以W为坐标系数,θ为常数项的一个超平面.当样本点X落入超平面的正半区,即I(X)>0时,有f(I)=1;当样本点X落入超平面的负半区,即I(X)<0时,有f(I)=0.从分类的角度看,一个神经元按输入将样本划分成为两类(0和1).现在广泛使用的BP模型采用Sigmoid函数作为激励函数,但是它没有改变神经元分类的本质.神经网络实际上就是多个神经元组织起来的一种网状结构.
文摘本文对一般非线性系统,提出了三种高阶迭代学习控制算法:(Ⅰ)u_(h+1)=sum from j=1 to r(P_ju_(k-j+1)+Г_je_(h-j+1));(Ⅱ)u_(k+1)=sum from j=1 to r(P_ju_(k-j+1)+F_je_(k-j+1));(Ⅲ)u_(k+1)=sum from j=1 to r{P_ju_(k-j+1)+(Г_j+F_jd/(dt))e_(k-j+1)},其中u_(k+1)=u_(k+1)(t)表示系统第k+1次运行时的输入;e_k=y_k-y_d;y_d是系统所期望的输出;y_k是系统第k次运行时的输出;P_j,Г_j,F_j(j=1,…,r)是常数阵;进而给出了比较弱的收敛性条件。