BP神经网络
bp神经网络。今天来讲bp神经网络,神经网络在机器学习中应用比较广泛,比如函数逼近,模式识别,分类,数据压缩,数据挖掘等领域。接下来介绍bp神经网络的原理及实现。
总结:简单的描述就是,输入层将刺激传递给隐藏层,隐藏层通过神经元之间联系的强度(权重)和传递规则(激活函数)将刺激传到输出层,输出层整理隐藏层处理后的刺激产生最终结果。若有正确的结果,那么将正确的结果(相当于知道了精确答案,与这个网络算出的结果相对比,来看这个网络是否能正确计算)和产生的结果进行比较,得到误差,再逆推对神经网中的链接权重进行反馈修正,从而来完成学习的过程,这就是bp(back propagation)神经网的反馈机制,也正是bp名字的来源。
contents
1. bp神经网络的认识
2. 隐含层的选取
3. 正向传递子过程
4. 反向传递子过程
5. bp神经网络的注意点
6. bp神经网络的c++实现
1. bp神经网络的认识
bp(back propagation)神经网络分为两个过程
(1)工作信号正向传递子过程
(2)误差信号反向传递子过程
在bp神经网络中,单个样本有
个输入,有
个输出,在输入层和输出层之间通常还有若干个隐含层。实际
上,1989年robert hecht-nielsen证明了对于任何闭区间内的一个连续函数都可以用一个隐含层的bp网
络来逼近,这就是万能逼近定理。所以一个三层的bp网络就可以完成任意的
维到
维的映射。即这三层分
别是输入层(i),隐含层(h),输出层(o)。如下图示
2. 隐含层的选取
在bp神经网络中,输入层和输出层的节点个数都是确定的,而隐含层节点个数不确定,那么应该设置为多少
才合适呢?实际上,隐含层节点个数的多少对神经网络的性能是有影响的,有一个经验公式可以确定隐含层
节点数目,如下
其中
为隐含层节点数目,
为输入层节点数目,
为输出层节点数目,
为
之间的调节常数。
3. 正向传递子过程
现在设节点
和节点
之间的权值为
,节点
的阀值为
,每个节点的输出值为
,而每个节点的输出
值是根据上层所有节点的输出值、当前节点与上一层所有节点的权值和当前节点的阀值还有激活函数来实现
的。具体计算方法如下
其中
为激活函数,一般选取s型函数或者线性函数。
正向传递的过程比较简单,按照上述公式计算即可。在bp神经网络中,输入层节点没有阀值。
4. 反向传递子过程
在bp神经网络中,误差信号反向传递子过程比较复杂,它是基于widrow-hoff学习规则的。假设输出层
的所有结果为
,误差函数如下
而bp神经网络的主要目的是反复修正权值和阀值,使得误差函数值达到最小。widrow-hoff学习规则
是通过沿着相对误差平方和的最速下降方向,连续调整网络的权值和阀值,根据梯度下降法,权值矢量
的修正正比于当前位置上e(w,b)的梯度,对于第
个输出节点有
假设选择激活函数为
对激活函数求导,得到
那么接下来针对
有
其中有
同样对于
有
这就是著名的
学习规则,通过改变神经元之间的连接权值来减少实际输出和期望输出的误差,这个规
则又叫做widrow-hoff学习规则或者纠错学习规则。
上面是对隐含层和输出层之间的权值和输出层的阀值计算调整量,而针对输入层和隐含层和隐含层的阀值调
整量的计算更为复杂。假设
是输入层第k个节点和隐含层第i个节点之间的权值,那么有
其中有
这样对
学习规则理解更为深刻了吧。
有了上述公式,根据梯度下降法,那么对于隐含层和输出层之间的权值和阀值调整如下
而对于输入层和隐含层之间的权值和阀值调整同样有
至此bp神经网络的原理基本讲完。
5. bp神经网络的注意点
bp神经网络一般用于分类或者逼近问题。如果用于分类,则激活函数一般选用sigmoid函数或者硬极限函
数,如果用于函数逼近,则输出层节点用线性函数,即
。
bp神经网络在训练数据时可以采用增量学习或者批量学习。
增量学习要求输入模式要有足够的随机性,对输入模式的噪声比较敏感,即对于剧烈变化的输入模式,训
练效果比较差,适合在线处理。批量学习不存在输入模式次序问题,稳定性好,但是只适合离线处理。
标准bp神经网络的缺陷:
(1)容易形成局部极小值而得不到全局最优值。
bp神经网络中极小值比较多,所以很容易陷入局部极小值,这就要求对初始权值和阀值有要求,要使
得初始权值和阀值随机性足够好,可以多次随机来实现。
(2)训练次数多使得学习效率低,收敛速度慢。
(3)隐含层的选取缺乏理论的指导。
(4)训练时学习新样本有遗忘旧样本的趋势。
bp算法的改进:
(1)增加动量项
引入动量项是为了加速算法收敛,即如下公式
动量因子
一般选取
。
(2)自适应调节学习率
(3)引入陡度因子
通常bp神经网络在训练之前会对数据归一化处理,即将数据映射到更小的区间内,比如[0,1]或[-1,1]。
6. bp神经网络的c++实现
bp神经网络的c++文件如下
bp.h:
view plaincopy
- #ifndef_bp_h_
- #define_bp_h_
- #include
- #definelayer3//三层神经网络
- #definenum10//每层的最多节点数
- #definea30.0
- #defineb10.0//a和b是s型函数的参数
- #defineiters1000//最大训练次数
- #defineeta_w0.0035//权值调整率
- #defineeta_b0.001//阀值调整率
- #defineerror0.002//单个样本允许的误差
- #defineaccu0.005//每次迭代允许的误差
- #definetypedouble
- #definevectorstd::vector
- structdata
- {
- vector
x;//输入数据 - vector
y;//输出数据 - };
- classbp{
- public:
- voidgetdata(constvector);
- voidtrain();
- vector
forecast(constvector ); - private:
- voidinitnetwork();//初始化网络
- voidgetnums();//获取输入、输出和隐含层节点数
- voidforwardtransfer();//正向传播子过程
- voidreversetransfer(int);//逆向传播子过程
- voidcalcdelta(int);//计算w和b的调整量
- voidupdatenetwork();//更新权值和阀值
- typegeterror(int);//计算单个样本的误差
- typegetaccu();//计算所有样本的精度
- typesigmoid(consttype);//计算sigmoid的值
- private:
- intin_num;//输入层节点数
- intou_num;//输出层节点数
- inthd_num;//隐含层节点数
- vectordata;//输入输出数据
- typew[layer][num][num];//bp网络的权值
- typeb[layer][num];//bp网络节点的阀值
- typex[layer][num];//每个神经元的值经s型函数转化后的输出值,输入层就为原值
- typed[layer][num];//记录delta学习规则中delta的值
- };
- #endif//_bp_h_
view plaincopy
bp.cpp:- #include
- #include
- #include
- #include
- #include"bp.h"
- //获取训练所有样本数据
- voidbp::getdata(constvector_data)
- {
- data=_data;
- }
- //开始进行训练
- voidbp::train()
- {
- printf("begintotrainbpnetwork!\n");
- getnums();
- initnetwork();
- intnum=data.size();
- for(intiter=0;iter<=iters;iter++)
- {
- for(intcnt=0;cnt
- {
- //第一层输入节点赋值
- for(inti=0;i
- x[0][i]=data.at(cnt).x[i];
- while(1)
- {
- forwardtransfer();
- if(geterror(cnt)
break; )> - reversetransfer(cnt);
- }
- }
- printf("thisisthe%dthtrainningnetwork!\n",iter);
- typeaccu=getaccu();
- printf("allsamplesaccuracyis%lf\n",accu);
- if(accu
- }
- printf("thebpnetworktrainend!\n");
- }
- //根据训练好的网络来预测输出值
- vector
bp::forecast(constvector data) - {
- intn=data.size();
- assert(n==in_num);
- for(inti=0;i
- x[0][i]=data[i];
- forwardtransfer();
- vector
v; - for(inti=0;i
- v.push_back(x[2][i]);
- returnv;
- }
- //获取网络节点数
- voidbp::getnums()
- {
- in_num=data[0].x.size();//获取输入层节点数
- ou_num=data[0].y.size();//获取输出层节点数
- hd_num=(int)sqrt((in_num+ou_num)*1.0)+5;//获取隐含层节点数
- if(hd_num>num)hd_num=num;//隐含层数目不能超过最大设置
- }
- //初始化网络
- voidbp::initnetwork()
- {
- memset(w,0,sizeof(w));//初始化权值和阀值为0,也可以初始化随机值
- memset(b,0,sizeof(b));
- }
- //工作信号正向传递子过程
- voidbp::forwardtransfer()
- {
- //计算隐含层各个节点的输出值
- for(intj=0;j
- {
- typet=0;
- for(inti=0;i
- t+=w[1][i][j]*x[0][i];
- t+=b[1][j];
- x[1][j]=sigmoid(t);
- }
- //计算输出层各节点的输出值
- for(intj=0;j
- {
- typet=0;
- for(inti=0;i
- t+=w[2][i][j]*x[1][i];
- t+=b[2][j];
- x[2][j]=sigmoid(t);
- }
- }
- //计算单个样本的误差
- typebp::geterror(intcnt)
- {
- typeans=0;
- for(inti=0;i
- ans+=0.5*(x[2][i]-data.at(cnt).y[i])*(x[2][i]-data.at(cnt).y[i]);
- returnans;
- }
- //误差信号反向传递子过程
- voidbp::reversetransfer(intcnt)
- {
- calcdelta(cnt);
- updatenetwork();
- }
- //计算所有样本的精度
- typebp::getaccu()
- {
- typeans=0;
- intnum=data.size();
- for(inti=0;i
- {
- intm=data.at(i).x.size();
- for(intj=0;j
- x[0][j]=data.at(i).x[j];
- forwardtransfer();
- intn=data.at(i).y.size();
- for(intj=0;j
- ans+=0.5*(x[2][j]-data.at(i).y[j])*(x[2][j]-data.at(i).y[j]);
- }
- returnans/num;
- }
- //计算调整量
- voidbp::calcdelta(intcnt)
- {
- //计算输出层的delta值
- for(inti=0;i
- d[2][i]=(x[2][i]-data.at(cnt).y[i])*x[2][i]*(a-x[2][i])/(a*b);
- //计算隐含层的delta值
- for(inti=0;i
- {
- typet=0;
- for(intj=0;j
- t+=w[2][i][j]*d[2][j];
- d[1][i]=t*x[1][i]*(a-x[1][i])/(a*b);
- }
- }
- //根据计算出的调整量对bp网络进行调整
- voidbp::updatenetwork()
- {
- //隐含层和输出层之间权值和阀值调整
- for(inti=0;i
- {
- for(intj=0;j
- w[2][i][j]-=eta_w*d[2][j]*x[1][i];
- }
- for(inti=0;i
- b[2][i]-=eta_b*d[2][i];
- //输入层和隐含层之间权值和阀值调整
- for(inti=0;i
- {
- for(intj=0;j
- w[1][i][j]-=eta_w*d[1][j]*x[0][i];
- }
- for(inti=0;i
- b[1][i]-=eta_b*d[1][i];
- }
- //计算sigmoid函数的值
- typebp::sigmoid(consttypex)
- {
- returna/(1+exp(-x/b));
- }
test.cpp:
view plaincopy- #include
- #include
- #include
- #include"bp.h"
- usingnamespacestd;
- doublesample[41][4]=
- {
- {0,0,0,0},
- {5,1,4,19.020},
- {5,3,3,14.150},
- {5,5,2,14.360},
- {5,3,3,14.150},
- {5,3,2,15.390},
- {5,3,2,15.390},
- {5,5,1,19.680},
- {5,1,2,21.060},
- {5,3,3,14.150},
- {5,5,4,12.680},
- {5,5,2,14.360},
- {5,1,3,19.610},
- {5,3,4,13.650},
- {5,5,5,12.430},
- {5,1,4,19.020},
- {5,1,4,19.020},
- {5,3,5,13.390},
- {5,5,4,12.680},
- {5,1,3,19.610},
- {5,3,2,15.390},
- {1,3,1,11.110},
- {1,5,2,6.521},
- {1,1,3,10.190},
- {1,3,4,6.043},
- {1,5,5,5.242},
- {1,5,3,5.724},
- {1,1,4,9.766},
- {1,3,5,5.870},
- {1,5,4,5.406},
- {1,1,3,10.190},
- {1,1,5,9.545},
- {1,3,4,6.043},
- {1,5,3,5.724},
- {1,1,2,11.250},
- {1,3,1,11.110},
- {1,3,3,6.380},
- {1,5,2,6.521},
- {1,1,1,16.000},
- {1,3,2,7.219},
- {1,5,3,5.724}
- };
- intmain()
- {
- vectordata;
- for(inti=0;i<41;i++)
- {
- datat;
- for(intj=0;j<3;j++)
- t.x.push_back(sample[i][j]);
- t.y.push_back(sample[i][3]);
- data.push_back(t);
- }
- bp*bp=newbp();
- bp->getdata(data);
- bp->train();
- while(1)
- {
- vector
in; - for(inti=0;i<3;i++)
- {
- typev;
- scanf("%lf",&v);
- in.push_back(v);
- }
- vector
ou; - ou=bp->forecast(in);
- printf("%lf\n",ou[0]);
- }
- return0;
- }
makefile:
view plaincopy- test:bp.hbp.cpptest.cpp
- g++bp.cpptest.cpp-otest
- clean:
- rmtest
- #include
- #include
上一篇: Java基本数据类型转换
下一篇: 爆糗,生活尬事乐死人
推荐阅读
-
PyTorch上搭建简单神经网络实现回归和分类的示例
-
NVIDIA也看上了RISC-V架构:融入深度神经网络加速器
-
U盘大小:Intel第一代神经网络计算棒停产
-
MacOS配置Anaconda3(Miniconda3)下Python3.6、Python3.7和Python2.7环境和基础机器学习、神经网络相关包详解(版本号对应)
-
bp(net core)+easyui+efcore实现仓储管理系统——入库管理之三存储过程(三十九)
-
纯Python实现反向传播(BP算法)(5)
-
Halcon MLP多层神经网络的训练
-
Python实现的NN神经网络算法完整示例
-
TensorFlow平台下Python实现神经网络
-
利用TensorFlow训练简单的二分类神经网络模型的方法