BP神经网络

发布时间:2024年01月08日

神经网络得典型结构

输入层:取决于输入样本的数量。假设m个样本,每个样本n个维度。

隐藏层:连接到输入层和输出层。神经元的个数自定义,无硬性要求。

输出层:神经网络的最终输出结果,可以用来分类和回归预测

用于拟合(预测)和分类

因此权值和阈值得确定尤为重要

接下来是神经元的信息传递

f是信号加工,建立x和y之间关系的过程

激活量和净激活量

激活函数是对净激活量与输出进行映射的函数

一般用这两个

网络模型分类

前馈

反馈

自组织

前馈没有反馈的,很容易造成大的误差,没有调整的过程,只往上传

工作状态

分为学习和工作两种状态

利用学习算法来调整神经元之间的连接权重,使得网络输出更符合实际

学习是有导师学习

把一组训练集送入网络,根据网络的实际输出与期望输出之间的差别来调整连接权。

工作

神经元之间的连接权值不变,可以作分类器或预测数据之用。

工作往往是在学习的基础之上进行的。

讲重头戏

BP算法

利用BP学习算法的前馈神经网络称为BP神经网络

什么是不固定的呢?

就是权值。

BP算法,利用输出后的误差估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的反传下去,就获得了其他各层的误差估计。

信号是正向传播的。

误差反传,修复各神层单元的权值。

要求解模型

就是f(x)-A最小的时候,即是误差最小的

(A是实际值)

就是导函数的点(但是容易取得局部最优值)

标准输出-输出向量平方求和再×二分之一即可。

隐含层神经元需要用权值取×再求和

代入函数就可以求出隐含层输出

同理,输出层也是一样的

文章来源:https://blog.csdn.net/2302_79394843/article/details/135464020
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。