BP神经网络在PID参数自整定中的应用.doc

上传人:精*** 文档编号:871207 上传时间:2024-02-28 格式:DOC 页数:59 大小:1.55MB
下载 相关 举报
BP神经网络在PID参数自整定中的应用.doc_第1页
第1页 / 共59页
BP神经网络在PID参数自整定中的应用.doc_第2页
第2页 / 共59页
BP神经网络在PID参数自整定中的应用.doc_第3页
第3页 / 共59页
BP神经网络在PID参数自整定中的应用.doc_第4页
第4页 / 共59页
BP神经网络在PID参数自整定中的应用.doc_第5页
第5页 / 共59页
点击查看更多>>
资源描述

1、目录摘 要 PID控制方法是经典控制算法中的典型代表,并在多种控制场合取得了很好的效果,但随着生产工艺的日益复杂和人们对工业过程总体性能要求的不断提高,被控对象越来越复杂,大量非线性控制对象的出现,传统的PID控制方法往往难以满足闭环优化控制的要求。而神经网络作为现代信息处理技术的一种,正在很多应用中显示了它的优越性,神经网络PID控制技术在其中扮演了十分重要的角色,并且仍将成为未来研究与应用的重点技术之一。本文阐述了神经网络PID控制算法的基本原理,并对几种典型的神经网络PID控制器的控制性能进行了分析。关键词:神经网络;PID控制;Matlab仿真;梯度搜索算法;BP算法ABSTRACT

2、The PID control method is one of the traditional eontrol methods and gets good effects under many application situation.But with the increase in complexity of manufacture technics and demands of industrial process performance,the conventional PID control can not meet the requirement of closed loop o

3、ptimized control.Neural network,as one of modern information proeess technologies,has some advantages in many application.Neural network PID control teehnology in which Plays a very imPortant role,and will become one of the focus of the research and application of teehnology.In this paper ,we descri

4、bes the basic principles of neural network PID control arithmetic, and form the simulinks of Neural network PID controller,analyse their differences.Keywords:Neural Networks;PID Control;Matlab Simulation; Gradient Search Arithmetic;BP Arithmetic 目录第一章 引言11.1神经网络PID控制器研究现状及发展态势11.2选题依据及意义11.3课题研究内容21

5、.4课题的目标与拟解决的问题2第二章 人工神经网络32.1 人工神经网络的发展32.2 生物神经元42.3 人工神经网络的结构52.3.1人工神经元及其激活函数62.3.2 神经网络的拓扑结构82.4 神经网络的学习102.4.1 神经网络的学习方式102.4.2 神经网络学习算法112.5神经网络的特点及其应用132.5.1 神经网络的特点132.5.2 神经网络的应用13第三章 传统PID控制143.1 传统PID控制简介143.2 数字PID控制算法153.3 PID控制的参数及其整定163.3.1 PID控制参数对性能的影响163.3.2 PID控制参数的整定163.4 传统PID控制

6、的难题18第四章 BP神经网络PID控制器194.1 神经网络用于控制领域194.2 神经网络PID控制研究的意义与现状194.3 BP神经网络204.4 BP神经网络参数自整定PID控制器224.5 BP神经网络近似PID控制器26第五章 BP神经网络PID控制器的编程与仿真295.1 编程语言Matlab语言简介295.2 BP神经网络自整定PID控制器的编程实现305.2.1参数初始化核心代码305.2.2 前馈计算核心代码305.2.3 误差反传核心代码315.3 BP神经网络自整定PID控制器的仿真325.4 BP神经网络近似PID控制器的编程实现385.5 BP神经网络近似PID控

7、制器的仿真测试395.6 本章小结41结束语42参考文献43致谢44附录一:神经自整定PID控制器的M程序45附录二:神经近似PID控制器的M程序48外文资料原文51外文资料译文54III第一章 引言第一章 引言1.1神经网络PID控制器研究现状及发展态势 PID控制器从问世至今已经几十年了,成为工业过程控制中主要技术成功应用于机械冶金电力和轻工等工业过程控制领域中1,对于PID控制器来说,要想得到较理想的控制效果,必须先对其三个参数:即比例系数( Kp ),微分系数( Ki ),微分系数( Kd )进行优化。因此如何选择最优PID控制参数是工业界关注的一个关键课题。 目前,传统的PID参数优

8、化方法有试凑法,扩充临界比例法法和扩充响应曲线法等,试凑法法的结果与经验知识的多少有着直接的关联,如果经验知道太少,得到的控制效果差,同时知识库的整理需要花费较长时间,对初值十分敏感,要建立十分精确的传统数学模型相当困难,传统的PID控制器参数优化方法无法保证系统继续正常工作,难达到理想的控制效果,这要求PID控制器具有在线自优化其参数的功能。 近些年,神经网络得到了迅速发展,神经网络具有不需要了解系统的结构,可以通过自身的学习来逼近系统的不确定性和非线性,对系统参数进行模拟,从而到系统变化规律。目前,通过采用神经网络进行PID 控制器参数优化成为一个热点问题,尤其BP(Back Propag

9、ation)神经网络因其具良好的非线性映射逼近能力,自适应学习,并行处理和强鲁棒性等优点,十分适用复杂非线性系统进行建模和控制。1.2选题依据及意义 随着控制理论的迅速发展,在工业过程控制中先后出现了许多先进的控制算法,然而,PID类型的控制技术仍然占有主导地位,特别是在化工,冶金过程控制中,众多量大面广的控制过程基本上仍然应用PID类型的控制单元。但若采用常规PID控制器以一组固定不变的PID参数去适应那些参数变化、干扰众多的控制系统,显然难以获得满意的控制效果,甚至当参数变化范围太大时,系统性能会明显变差,因此PID控制在解决大时滞、参数变化大和模糊不确定性的过程控制问题时无法获得良好的静

10、态和动态性能。 另一方面神经网络控制不需要精确的数学模型,因而是解决不确定性系统控制的一种有效途径。此外,神经网络以其高度并行的结构所带来的强容错性和适应性,对于给定的系统很容易处理,易于与传统的控制技术相结合3。 从上述PID控制和神经网络控制各自的优势和局限性可以看出,如果把传统线性PID和神经网络控制结合起来,取长补短,可使系统的控制性能得到提高,是一种很实用的控制方法。如果能发现性能优于PID的控制器,且具有类似PID易于使用的特点,无论在理论还是实践上都将具有重要意义。1.3课题研究内容 对PID控制器参数优化问题进行研究,利用BP( Back Propagation)神经网络算法建

11、立PID神经网络控制器模型,并通过MATLAB对其进行仿真和测试验证。归纳了神经网络PID控制方式,设计出两种基于BP神经网络的PID智能控制器,利用BP神经网络算法给出其权值变化规律,并对其控制过程中存在的问题进行了分析。1.4课题的目标与拟解决的问题 对人工神经网络的研究直到今天,理论方面已经十分成熟。另一方面科技日新月异的发展,被控对象越来越复杂,传统的PID控制已经难以满足人们的需求。在如此的需求下,本文利用人工神经网络的自适应性,寻找一种人工神经网络和PID控制结合而成的智能控制器2。所谓知易行难,虽然人工神经网络与PID控制算法的理论基础已经十分完善,但人工神经网络与PID控制器能

12、否结合,怎么结合,结合而成的控制器十分具有工程上的实用性,真正可用于工程应用的核心算法应该怎么编写?对此发出疑问并进行研究的人少之又少。基于此,本文意在找到一种人工神经网络与PID算法相结合的控制器,并解决以下问题: (1)在各种人工神经网络模型中寻找一种用于控制器比较合适的人工神经 网络模型。 (2)人工神经网络的学习算法多种多样,本文就两种易于实现的神经网络PID 控制算法进行设计和仿真测试,对其性能和适用范围就行确定。 (3)对人工神经网络控制器进行Matlab仿真,测试其对被控对象为一阶系统, 二阶系统,非线性系统的情况下的响应。55第二章 人工神经网络第二章 人工神经网络2.1 人工

13、神经网络的发展 神经网络起源于20世纪40年代,至今已半个多世纪了,大致分为三个阶段。(1)20世纪5060年代第一次研究高潮4 早在1943年,心理学家McCulloch和数学家Pitts就已共同提出了神经元的数学模型,即MP模型,从此开创了神经科学理论研究的时代。 1949年,心理学家Hebb提出了神经元之间突触联系强度可变的假设,即改变神经元连接强度的Hebb规则,为神经网络的学习算法奠定基础。 1957年,Rosenblatt提出了感知机(Perceptron)模型,第一次把神经网络研究从纯理论的探索付诸于工程实践。 1962年,Widrow提出了自适应线性元件(Adaline)。它是

14、连续取值的线性网络,主要用于自适应系统,这与当时占主导地位的以符合推理为特征的传统人工智能途径完全不同,因而形成了神经网络,脑模型研究的高潮。(2)20世纪6070年代低潮时期 到了20世纪60年代,人们发现感知器存在一些缺陷,如不能解决异或问题,因而研究工作趋向低潮。不过仍有不少学者继续对神经网络进行研究。Grossberg提出了自适应共振理论,kohennen提出了自组织映射,Fukushima提出了神经认识机网络理论,Anderson提出了BSB模型,Webos提出了BP理论,等等。这些都是在20世纪7080年代所进行的工作。(3)20世纪80年代至今第二次研究高潮进入20世纪80年代,

15、神经网络研究进入高潮。1982年,美国物理学家Hopfield提出了Hopfield神经网络模型,有力地推动了神经网络的研究。他引入了“计算能量函数”的概念,给出了网络稳定性判据。1984年,他用此模型成功地解决了复杂度为NP的旅行商问题(TSP)。Felemann和Ballard的连接网络模型指出了传统的人工智能计算与生物计算的区别,给出了并行分布处理的计算原则。Hinton和Sejnowwski提出的Boltzman模型借用了统计物理学的概念和方法,首次提出了多层网络的学习算法。1986年,Rumelhart和McCelland等人提出并行分布处理(PDP)的理论,同时提出了多层网络的误差

16、反向传播学习算法,简称为BP算法。这种算法根据学习的误差大小,把学习的结果反馈到中间层次的隐单元,改变它们的权系数矩阵,从而达到预期的学习目的,解决了多层网络的学习问题。BP算法从实践上证明神经网络的运算能力很强,可以完成许多学习任务,解决许多具体问题。BP网络是迄今为止最常用,最普通的网络3。1987年6月在美国加州举行了第一届神经网络国际会议,有1000多名学者参加,并成立了国际神经网络学会。后来确定每年召开两次国际联合神经网络大会。1990年,我国的863高技术研究计划批准了关于人工神经网络的三项课题,自然科学基金与国防科技预研基金也都把神经网络的研究列入选题指南。2.2 生物神经元 生

17、物神经元,也称神经细胞,是构成神经系统的基本单元。虽然神经元的形态有很大的差异,但基本结构相似。而人工神经网络正是在对生物神经元的模拟中产生的。我们先在信息处理和生物控制的角度,简述其结构与功能,以便我们更好地了解神经网络4。1. 神经元结构 神经元结构如下图所示。 图 2-1 生物神经元结构图 (1)细胞体:由细胞核、细胞质和细胞膜组成。 (2)树突:胞体上短而多分枝的突起,相当于神经元的输入端。 (3)轴突:胞体上最长枝的突起,也称神经纤维。端部有很多神经末梢,传出神经冲动。 (4)突触:突触是神经元之间的连接接口,每一个神经元大约有104105个突触。一个神经元,通过其轴突的神经末梢,经

18、突触,与另一个神经元的树突连接,以实现信息的传递。由于突触的信息传递特性是可变的,随着神经冲动传递方式的变化,传递作用强弱不同,形成了神经元之间连接的柔性,称为结构的可塑性。 (5)细胞膜电位:神经细胞在受到电的、化学的、机械的刺激后能产生兴奋,此时细胞膜内外有电位差,称为电位膜。其电位膜内为正,膜外为负。2. 神经元功能 (1)兴奋与抑制:传入神经元的冲动经整合后使细胞膜电位升高,超过动作电位的阀值时即为兴奋状态,产生神经冲动,由轴突经神经末梢传出。传入神经元的冲动经整合后使细胞膜电位降低,低于阀值时即为抑制状态,不产生神经冲动。 (2)学习与遗忘:由于神经元结构的可塑性,突触的传递作用可增

19、强与减弱,因此神经元具有学习与遗忘的功能。神经生理学和神经解剖学证明了人的思维是由脑完成的。神经元是组成人脑的最基本单元,能够接受并处理信息。人脑约由10111012个神经元组成,其中每个神经元约与104105个神经元通过突触连接,因此人脑是一个复杂的信息并行加工处理巨系统。探索脑组织的结构、工作原理及信息处理的机制,是整个人类面临的一项挑战,也是整个自然科学的前沿领域。人脑的功能,一方面受先天因素的制约,即由遗传信息先天确定了其结构与特性;另一方面, 后天因素也起重要的作用,即大脑可通过其自组织、自学习,不断适应外界环境的变化。大脑的自组织、自学习性 (Self-Organization)来

20、源于神经网络结构的可塑性(Plasticity),它主要反映在神经元之间连接强度的可变性上。 2.3 人工神经网络的结构 人工神经网络(ANN,Artificial Neural Networks)或称连接机制,是从微观结构与功能上对人脑神经系统的模拟而建立起来的一类模型,具有模拟人的部分形象思维能力,其特点主要是具有非线性特性、学习能力和自适应性,是模拟人的智能的一条重要途径。它是由简单信息处理单元(人工神经元,简称神经元)互联组成的网络,能接受并处理信息。网络的信息处理由处理单元之间的相互作用来实现,它是通过把问题表达成处理单元之间的连接权来处理的1。多年来,学者们建立了多种神经网络模型,

21、决定其整体性能的三大要素为: (1)神经元(信息处理单元)的特性。 (2)神经元之间相互连接的形式拓扑结构。 (3)为适应环境而改善性能的学习规则。 神经网络是人脑的某种抽象、简化和模拟,反映了人脑的若干基本特征: (1)网络的信息处理由处理单元的相互作用来实现,并具有并行处理的特点。 (2)知识与信息的存储,表现为处理单元之间分布式的物理联系。 (3)网络的学习与识别,决定于处理单元连接权系的动态演化过程。 (4)具有联想记(AM,Associative Memory)的特性。 神经网络是具有高度非线性的系统,具有一般非线性的特性。虽然单个神经元的组成和功能极其有限,但大量神经元构成的网络系

22、统所实现的功能是丰富多彩的。2.3.1人工神经元及其激活函数1943年,美国心理学家McCulloch和数学家Pitts共同提出“模拟生物神经元”的被称为MP的人工神经元模型,如图2-2所示,它是一个多输入/多输出的非线性信息处理单元6。 图2-2 MP神经元模型 其输入输出关系为: (2-1) (2-2)其中是从其他神经元传来的输入信号;表示从神经元到神经元的连接权值;为阀值;称为激发函数或作用函数。为方便起见,通常把也看成是恒等于1的输入的权值,因此上式可写成: (2-3)其中:,输出激发函数又称为激活函数,它决定神经元(节点)的输出。该输出为1或0。取决于其输入之和大于或小于内部阀值。函

23、数一般具有非线性特点,图2-3为几种常见的激发函数图5。1. 阀值型函数(见图2-3(a,b): 当取0或1时,为图(a)所示的阶跃函数: (2-4) 当取-1或1时,为图(b)所示的sgn函数(符号函数): (2-5)2. 饱和型函数(见图2-3(c): (2-6)3. 双曲函数(见图2-3(d): (2-7)4. S型函数(见图2-3(e): 神经元的状态与输入作用之间的关系是在(0,1)内连续取值的单调可微函数,称为 Sigmoid 函数,简称S型函数。 当趋于无穷时,S型曲线趋于阶跃函数,通常情况下,取值为1。 (2-8)5. 高斯函数(见图2-3(f):在径向基函数(Radial B

24、asis Function,RBF)构成的神经网络中,神经元的结构可用高斯函数描述如下: (2-9) 图2-3 常见的激活函数图2.3.2 神经网络的拓扑结构1. 前馈型神经网络 前馈型神经网络,又称前向网络(Feed forward NN) 。如图2-4所示,神经元分层排列,有输入层、隐层(亦称中间层,可有若干层)和输出层,每一层的神经元只接受前一层4。 图2-4 前馈型神经网络 从学习的观点来看,前馈网络是一种强有力的学习系统,其结构简单而易于编程;从系统的观点看,前馈网络是一静态非线性映射,通过简单非线性处理单元的复合映射,可获得复杂的非线性处理能力。但从计算的观点看,缺乏丰富的动力学行

25、为。大部分前馈网络都是学习网络,它们的分类能力和模式识别能力一般都强于反馈网络,典型的前馈网络有感知器网络、BP网络,学习矢量化(LVQ)网络、小脑模型连接控制器(CMAC)和数据处理方法等(GMDH)网络等。2. 反馈型神经网络反馈型神经网络(Feedback NN)的结构如图2-4所示。如果总节点(神经元)数为 N,那么每个节点有 N个输入和一个输出,所有节点都是一样的,它们之间都可相互连接。图2-5 反馈型神经网络反馈神经网络是一种反馈动力学系统,它需要工作一段时间才能达到稳定。Hopfield网络、Elman网络和Jordon网络是反馈网络有代表性的例子,其中Hopfield 神经网络

26、是反馈网络中最简单且应用广泛的模型,它具有联想记忆的功能,如果将 Lyapunov 函数定义为寻优函数,Hopfie1d 神经网络还可以用来解决快速寻优问题6。 3. 自组织网络 Kohonen网络是典型的自组织网络。Kohonen认为当前神经网络在接受外界输入时,网络将会分成不同的区域,不同区域具有不同的相应特征,即不同的神经元以最佳方式响应不同性质的信号激励,从而形成一种拓扑意义上的特征图,该图实际上是以中非线性映射。这种映射是通过无监督的自适应过程完成的, Kohonen网络通过无导师的学习方式进行权值的学习,稳定后的网络输出就对输入模式生成自然的特征映射,从而达到自动聚类的目的。 图2

27、-6 自组织神经网络2.4 神经网络的学习2.4.1 神经网络的学习方式学习方法是体现人工神经网络智能特性的主要标志,正是由于有学习算法,人工神经网络就具有了自适应、自组织和自学习的能力。目前神经网络的学习方法有多种,按有无导师来分类,可分为有教师学习(Supervised Learning) 、无教师学习(Unsupervised Learning)和再励学习(Reinforcement Learning)等几大类。在有教师的学习方式中,网络的输出和期望的输出(即教师信号)进行比较,然后根据两者之间的差异调整网络的权值,最终使差异变小7。在无教师的学习方式中,输入模式进人网络后,网络按照预先

28、设定的规则(如竞争规则)自动调整权值,使网络最终具有模式分类等功能。再励学习是介于上述两者之间的一种学习方式。 神经网络的学习也称为训练,指的是神经网络在外部环境的刺激下调整神经网络的参数,使神经网络以一种新的方式对外部环境作出反应的一个过程。能够从环境中学习和在学习中提高自身性能是神经网络最有意义的性质,神经网络经过反复学习来达到对环境的了解。神经网络的学习方式可分为有导师学习,无导师学习和在励学习。有导师学习:亦称监督学习,他须组织以批正确的输入输出数据对。将输入数据加载到网络输入端后,把网络的实际输出与期望(理想)的输出相比较得到的误差,然后根据误差的情况修改各连接权值,使网络能朝着正确

29、响应的方向不断变化下去,直到实际的输出与期望输出之差在允许范围之内。无导师学习:亦称无监督学习,这时仅有一批输入数据。网络初始状态下,连接权值均设置为一个小正数,通过反复加载这批输入数据,使网络不断受到刺激,当与曾经经历的刺激相同的刺激到来时,响应连接权以某一系数增大,重复加入的相同刺激使相应的连接权增大到接近于1的某值。这一自组织的方法,使网络具有某种“记忆”能力以至形成“条件反射”,当曾经学习过或相似的刺激加入后,输出端便按权值矩阵产生相应的输出。再励学习:亦称强化学习。这种学习介于上述两种情况之间,外部环境对系统输出结果只给出评价(奖和罚)而不是给出正确答案,学习系统通过强化那些奖励的动

30、作来改善自身性能。2.4.2 神经网络学习算法 学习算法是指针对学习问题的明确规则,学习类型是由参数变化发生的形式决定的,不同的学习算法对神经元的权值调整的表达式是不同的。没有一种独特的学习算法适用于设计所有的神经网络。选择或设计学习算法时还需要考虑神经网络的结构及神经网络与外界环境相连接的方式8。Hebb学习规则:这是一种联想式学习方法。联想是人脑形象思维过程的一种表现形式。例如,在空间和时间上相互接近的事物间,在性质上相似(或相反)的事物间都容易在人脑中引起联想。生物学家 D.O.Hebbian 基于对生物学和心理学的研究,提出了学习行为的突触联系和神经群理论。他认为突触前与突触后二者同时

31、兴奋,即两个神经元同时处于激发状态时, 它们之间的连接强度将得到加强, 这一论述的数学描述被称为 Hebb 学习规则,即: (2-10)其中为连接从神经元i到神经元j的当前权值;,为神经元的激平。Hebb 学习规则是一种无教师的学习方法,它只根据神经元连接间的激活水平改变权值,因此这种方法又称为相关学习或并联学习。当神经元由下式描述时。 (2-11) (2-12)Hebb 学习规则可写成如下: (2-13)另外,根据神经元状态变化来调整权值的Hebb学习方法称为微分Hebb学习方法,可描述为: (2-14) Hebb学习规则的相关假设是许多学习规则的基础,几乎所有神经网络的学习规则都可以被看做

32、Hebb学习规则的变形。 误差校正学习算法:误差校正学习算法的适用面比较宽一些,它可以用于非线性神经元的学习过程,且学习样本的数量也没有限制,甚至于它还容忍训练样本中的矛盾之处,这也是神经网络容错性能的表现方式之一。误差校正学习是根据神经网络的输出误差对神经元的连接强度进行修正,属于有导师学习。设(),k=1,2,.,n为输入输出样本数据对,其中,。把作为网络的输入,在连接权的作用下,可得网络的实际输出。设神经元i到j的连接权为,则权的调整量为: (2-15)式中 学习速率; 误差函数对神经元j输入的偏导数; 第i个神经元的输出;随机学习算法:上面谈到的误差学习算法通常采用梯度下降法,存在局部

33、最小问题,随机学习算法通过引入不稳定因子来处理这种情况9。如果把神经网络的当前状态看做一个小球,增加不稳定因子,即对小球加一个冲量,则小球会越过峰值点,而达到全局最小点,即神经网络最终收敛于全局最小点。比较著名的随机学习算法有模拟退火和遗传算法。竞争学习算法:有导师的学习算法不能充分反映出人脑神经系统的高级智能学习过程,人脑神经系统在学习过程中各个细胞始终存在竞争。竞争学习网络由一组性能基本相同,只是参数有所不同的神经元构成,对于一个输入模式内各子模式的作用,每个神经元通过互相竞争来作出不同的反应,每个神经元的激活范围遵循某种特定的限制。2.5神经网络的特点及其应用2.5.1 神经网络的特点

34、神经网络的基本属性反映了神经网络特点,主意表现在以下方面: 并行分布式处理:神经网络具有高度的并行结构和并行实现能力,具有高速寻优化解的能力,能够发挥计算机的高速运算能力,可很快找到优化解。 非线性处理:人脑的思维是非线性的,故神经网络模拟人的思维应是非线性的。这一特性有助于处理非线性问题。 具有自学习功能:通过对过去的历史数据的学习,训练出一个具有归纳全部数据的特定的神经网络,自学习功能对于预测有特别重要的意义。神经网络的硬件实现:要使人工神经网络更快,更有效地解决更大规模的问题,关键在于其超大规模集成电路(VLSI)硬件的实现,即把神经元和连接制作在一块芯片上(多为COMS)构成的ANN。

35、神经网络的VLSI设计方法近年来发展很快,硬件实现已成为ANN的一个重要分支。2.5.2 神经网络的应用神经网络的理论应用取得了令人瞩目的成果,特别是在人工智能,自动控制,计算机科学,信息处理,机器人,模式识别,CAD/CAM等方面都有重大的应用实例。下面列出一些主要的应用领域10。模式识别和图像处理:印刷体和手写体字符识别,语音识别,签字识别,指纹识别,人体病理分析,目标检测与识别,图像压缩和图像复制等。控制和优化:化工过程控制,机器人运动控制,家电控制,半导体生产中掺杂控制,石油精炼优化控制和超大规模集成电路布线设计等。预报和智能信息管理:股票预测,地震预报,有价证劵管理,借贷风险分析,I

36、C卡管理和交通管理。通信:自适应均衡,回波抵消,路由选择和ATM网络中的呼叫接收识别和控制等。空间科学:空间交汇对接控制,导航信息智能管理,飞行器制导和飞行程序优化管理等。第三章 传统PID控制第三章 传统PID控制3.1 传统PID控制简介在实际工业控制中,大多数被控对象通常都有储能元件存在,这就造成系统对输入作用的响应有一定的惯性。另外,在能量和信息的传输过程中,由于管道和传输等原因会引入一些时间上的滞后,往往会导致系统的响应变差,甚至不稳定。因此,为了改善系统的调节品质,通常在系统中引入偏差的比例调节,以保证系统的快速性。引入偏差的积分调节以提高控制精度,引入偏差的微分调节来消除系统惯性

37、的影响,这就形成了按偏差PID调节的系统11。PID控制综合了被控量的过去(I)、现在(P)及未来(D)三方面的信息。常规PID控制系统原理框图如图3-1所示,系统由主要由PID控制器和被控对象组成。 图3-1 常规PID控制系统原理框图PID控制器是一种线性控制器,它根据给定值r(t)与实际输出值y(t)构成控制偏差,即: (3-1)然后对偏差按比例、积分和微分通过线性组合构成控制量,对被控对象进行控制。由图3-1得到PID控制器的理想算法为: (3-2) 或写成常见的传递函数形式: (3-3)其中,分别为PID控制器的比例增益、积分常数和微分常数。这三个参数的取值优劣将影响到PID控制系统

38、的控制效果好坏。3.2 数字PID控制算法在当代工业控制领域,数字技术,计算机技术得到了越来越广泛的应用。在应用计算机实现控制的系统中,数字PID很容易通过编程计算机程序的实现。由于软件系统的灵活性,PID算法可以得到修正和完善,从而使数字PID具有很大的灵活性和适用性12。 1. 数字PID位置式当执行机构需要控制量的全值,此时的PID控制算法称为位置式PID控制算法,此算法一般适用于执行装置无记忆功能的场合,如直流电机的电枢电压控制。 (3-4) 上式表明,计算机控制过程是根据采样时刻的偏差值计算控制量,输出控制量u(k)直接决定了执行机构的位置(如流量,压力,阀门等的开启位置),故称位置

39、式PID控制算法。2 数字PID增量式当执行机构不需要控制量的全值,而仅是其增量,由位置式可以导出增量PID控制算法。 (3-5) 增量式PID算法有以下优点,本文也采用此算法: (1)计算机只输出控制增量,即执行机构位置的变化,因而误动作影响小。 (2)在k时刻的增量输出u(k),只需用到此时此刻的偏差e(k),前一时刻的偏 差e(k-1)以及前两时刻的偏差e(k-2),这大大节约了内存和计算时间。 (3)在进行手动自动切换时,控制量冲击小,能够较平滑地过渡。3.3 PID控制的参数及其整定3.3.1 PID控制参数对性能的影响数字PID控制器主要参数是KP,Ti,TD。系统的设计任务是选取

40、合适的PID控制器参数使整个系统具有满意的动态特性,并满足稳态误差要求13。 1. 比例环节对控制性能的影响比例环节能即时成比例地反映控制系统的偏差信号,偏差一旦产生,控制器立即产生控制作用,以减少偏差。在系统稳定的情况下,增大比例系数,可以减小稳态误差,提高控制精度,但不能完全消除稳态误差,但同时使得系统调节速度加快,振荡次数加多。当比例系数太大时,会使调节过程出现较大的超调量,从而降低系统的稳定性,在某些严重的情况下,甚至可能造成系统不稳定。 2. 积分环节对控制性能的影响积分环节主要用于消除静差,提高系统的无差度,以保证实现对设定值的无静差跟踪。从原理上看,只要控制系统存在动态误差,积分

41、调节就产生作用,直至无差,积分作用就停止,此时积分调节输出为一常值。积分作用的强弱取决于积分常数的大小,越小,积分作用越弱,反之则越强。积分作用的引入会使系统稳定性下降,动态响应变慢。实际中,积分作用常与另外两种调节规律结合,组成PI控制器或者PID控制器。 3. 微分环节对控制性能的影响微分作用的引入,主要是为了改善控制系统的响应速度和稳定性。微分作用能反映系统偏差的变化律,预见偏差变化的趋势,因此能产生超前的控制作用。直观而言,微分作用能在偏差还没有形成之前,就己经消除偏差。微分作用的强弱取决于微分时间的大小,越大,微分作用越强,反之则越弱。在微分作用合适的情况下,系统的超调量和调节时间可

42、以被有效的减小。从滤波器的角度看,微分作用相当于一个高通滤波器,因此它对噪声干扰有放大作用,而这是我们在设计控制系统时不希望看到的。所以我们对的调整必须掌握好“分寸”,不能过强地增加微分调节,否则会对控制系统抗干扰产生不利的影响。3.3.2 PID控制参数的整定 确定PID的控制参数是一项重要的工作,控制效果的好坏在很大程度上取决于这些参数的选取是否合适。确定这些参数可以通过理论分析方法,也可以采用实验方法,特别是系统被控对象模型参数不准时,通过实验方法确定控制参数较为有效。在工程中,常用的整定方法有:试凑法,扩充临界比例度法,扩充响应曲线法等,在此本节只简单介绍一下比较简单的试凑法。 试凑法

43、是通过模拟或实际的闭环运行情况,观察系统的响应曲线,然后根据各调节参数对系统响应的大致影响,反复试凑参数,以达到满意的响应,从而确定PID控制器中的3个调节参数。其中在实践中总结出以下规律: (1)增大比例系数KP一般将加快系统的响应,在有稳态误差的情况下有利于减小稳态误差,但过大的比例系数会使系统有较大的超调量,并产生振荡,使系统的稳定性变坏。(2)减小积分系数KI有利于减小超调量,减小振荡,使系统更加稳定,但系统稳态误差的消除将随之减慢。(3)增大微分系数KD也有利于加快系统的响应,减小振荡,使系统稳定性增加,但系统对干扰的抑制能力减弱,对扰动有较敏感的响应。另外,过大的微分系统也将使系统

44、的稳定性变坏。在试凑时,可以参考以上的一般规律,对参数的调整步骤为先比例,后积分,再微分的整定步骤,即:(1) 先整定比例部分,将比例系数KP由小调大,并观察相应的系数响应趋势,直到得到反应,超调量小的响应曲线。如果系统没有稳态误差已小到允许范围之内,同时响应曲线已较令人满意,那么只需用比例调节器即可,最优化比例系统也由此确定。(2) 如果在比例调节的基础上系统的稳态误差不能满足设计要求,则需加入积分环节。整定时一般先置一个较小的积分系数KI,同时将第一步整定得到的比例系数KP缩小一些(比如取原来的80%),然后增大积分系数,使其保持系统较好的动态性能指标的基础上,系统的稳态误差得到消除。在此过程中,可以根据响应曲线的变化趋势反复地改变比例系数KP,积分系数KI,从而实现满意的控制过程和整定参数。(3) 如果使用比例积分控制器消除了偏差,但动态过程仍不能令人满意,则可加入微分环节,构成PID控制器。在整定时,可先置微分系数KD为零,在第二步整定的基础上,增大微分系数KD,同时相应地改变比例系数KP和积分系数KI,逐步试凑,以获得满意的调节效果和控制参数。 值得一提的是,

展开阅读全文
相关资源
相关搜索
资源标签

当前位置:首页 > 学术论文 > 毕业论文

版权声明:以上文章中所选用的图片及文字来源于网络以及用户投稿,由于未联系到知识产权人或未发现有关知识产权的登记,如有知识产权人并不愿意我们使用,如有侵权请立即联系:2622162128@qq.com ,我们立即下架或删除。

Copyright© 2022-2024 www.wodocx.com ,All Rights Reserved |陕ICP备19002583号-1 

陕公网安备 61072602000132号     违法和不良信息举报:0916-4228922