生物信息版范文[2](转载)

[复制链接]
查看11 | 回复0 | 2021-1-30 01:58:55 | 显示全部楼层 |阅读模式
【以下文字转载自New_Board讨论区】【原文由BRen所发表】
算法:神经网络
BP网络BP网络(BackpropagationNN)是一单向传播的多层前向网络。网络除输入输出节点外,有一层或多层的隐层节点,同层节点中没有任何耦合。输入信号从输入层节点,依次传过各隐层节点,然后传到输出节点,每一层节点的输出只影响下一层节点的输出。其节点单元特性(传递函数)通常为Sigmoid型(f(x)=1/(1+exp(-Bx))(B0),但在输出层中,节点的单元特性有时为线性。
BP网络可看成是一从输入到输出的高度非线性映射。有Kolmogorov定理(证明:Hecht-Nielsen,1987年):给定任一连续函数f:Un-Rm,f(X)=Y,这里U是闭区间[0,1],f可以精确地用一个三层前向网络实现,次网络的第一层(输入层)有n个处理单元,中间层有2n+1个处理单元,第三层(输出层)有m个处理单元。
机器人运动控制-反馈误差学习法机器人运动控制(Motioncontrolinrobotics)主要存在三大问题:1)如何决定在三维空间的运动轨迹;2)如何将三维空间中决定的运动轨迹转化为机器人各运动关节的运动轨迹;3)如何求出为实现机器人各运动关节的运动轨迹各马达操纵其对应运动关节所需的力矩。这三个问题的解往往不是唯一的。
对机器人,当各关节的马达产生一定的力矩后,各关节将会运动而产生一定的运动轨迹,由于摩擦力,惯性等因素的存在,而成为较复杂的非线性动态过程。
反馈误差学习法(Feedbackerrorlearningscheme)由川人等人提出(Kawatoetal.,1987)。控制系统由反馈控制(Feedback)和前馈控制(Feedforward)构成。刚开始,在网络没有学习前,主要由反馈控制的控制器来提供信号,当网络利用反馈控制器的信号作为误差来调整其参数,经过一定时间后,控制信号主要由网络的输出来决定,即前馈控制起主要作用。这种方法的特点是:学习和控制同时进行,控制系统能跟踪被控对象动态特性的变化,对外扰和测量噪声具有一定的鲁棒性。
川人等人用反馈误差学习法对工业机器人(Kawasaki-UnimatePUMA260)进行了控制实验(1988)。他们使用了三层的BP网络来学习PUMA机器人的逆动态模型。当网络经过1小时的学习后,控制系统的输出(机器人三个关节的角度和角速度)和希望值几乎完全相同。
模式识别模式识别(Patternrecognition)是神经网络应用最早也最广泛的领域之一,从最早的感知器(perceptron)到文字识别等,都是神经网络应用于模式识别的例子。在传统的统计方法中,模式识别是将样本的特征向量和每个模式类别的特征向量进行比较,然后将样本归到离其最近的模式类别中。而利用神经网络来进行模式识别,不仅可根据样本进行学习,改善识别能力,而且不需要对模式分布进行一些统计上的先验假设,可提高自适应性。
遗传算法遗传算法(GeneticAlgorithms)是J.H.Holland根据生物进化的模型提出的一种优化算法(Holland,1973;1975)。虽然GA刚提出时没有受到重视,但近年来,人们把它应用于学习,优化,自适应等问题中。
GA的算法过程简述如下。首先在解空间中取一群点,作为遗传开始的第一代。每个点(基因)用一二进制的数字串表示,其优劣程度用一目标函数(Fitnessfunction)来衡量。
在向下一代的遗传演变中,首先把前一代中的每个数字串根据由其目标函数值决定的概率分配到配对池中。好的数字串以高的概率被复制下来,劣的数字串被淘汰掉。然后将配对池中的数字任意配对,并对每一数字串进行交叉操作,产生新的子孙(数字串)。最后对新的数字串的某一位进行变异。这样就产生了新的一代。按照同样的方法,经过数代的遗传演变后,在最后一代中得到全局最优解或近似最优解。
GA的最大特点在于演算简单,它有三种演算:复制(Reproduction),交叉(Crossover),变异(Mutation)(Goldberg,1989)。

CG网络模型和Hopfield网络模型Cohen和Grossberg提出的反馈网络模型可用下述一组非线性微分方程描述(1983年)
dXi/dt=Ai(Xi)[Bi(Xi)-Sum(Cij*Dj(Xj),j=1~m)]i=1,2,...,n
上式描述的网络模型中,Xi代表第i个神经元的内部状态,Dj(Xj)是第j个神经元的输出,Cij是神经元i和j间耦合程度的权值,和项Sum代表神经元i的输入。关于CG网络的稳定性,有如下定理:
若Ai(Xi)=0,Dj(Xj)为单调递增,Cij=Cji,则该网络稳定。
Hopfield提出的网络模型可从CG网络模型导出,用下列非线性微分方程描述(1984年)
Ci*dXi/dt=-Xi/R+Ii+Sum(Tij*Yj,j=1~n)
Yj=Gj(Xj)
上述模型还可用一电路来表示。其中电阻Ri和电容Ci并联,模拟生物神经元输出的时间常数,跨导Tij模拟生物神经元之间互连的突触特性,运算放大器用来模拟神经元的非线形特性。
联想存储器和Hopfield网络模型所谓联想存储器就是神经网络经学习,存储了确定的输入模式后,输入给网络带有噪声的不完整模式,网络经过运算后就能给出与输入模式最接近的完整模式。或者说联想存储器就是一种存储有M个不同的n位向量的部件,给其输入一个n位向量,联想存储器就输出一个向量,这个输出的向量是原先存储在联想存储器中的M个向量之一,且与输入向量相对的输出向量最接近(即Hamming距离最近)。Hopfield网络模型是最为著名的自联想神经网络。
自组织特征映射(SOM)模型自组织特征映射(SOM)模型是TeuvoKohonen于1981年提出的。这种模型可以在处理单元阵列上形成输入信号的分布拓扑图。而在初始状态下,这些单元阵列上是没有这些信号特征的分布拓扑图的。SOM可以从外界环境中按照某种测度或者是某种可有序化的拓扑空间来抽取特征或者是表达信号抽象的,概念性的元素。
径向基函数(RBF)网络径向基函数(RBF)方法是在高维空间进行插值的一种技术。RBF这种兴奋函数,只对固定位置c视野范围内的输入产生响应。因此当x=c时f(x)值最大,随着|x-c|的值的增加,f(x)-0。高斯势函数就是这样一种函数。由于高斯函数的特性,RBF网络难以学习映射的高频部分。因为遍历整个输出空间所需的RBF数量可能非常大。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

主题

0

回帖

4882万

积分

论坛元老

Rank: 8Rank: 8

积分
48824836
热门排行