李沐深度学习-激活函数文档
发布时间:2024年01月19日
multilayer perceptron (MLP):多层感知机(多层神经网络)
(hidden layer)隐藏层:
介于输入层和输出层之间的网络层
输入层不涉及计算,如果一个神将网络由三层组成,则多层感知机层数为2
多层感知机中隐藏层和输出层都是全连接
隐藏层的输出(也叫隐藏层变量或隐藏变量)
隐藏层单元个数≠隐藏层变量个数
将隐藏层的输出作为输出层的输入,联立后得到的式子依然从形式上等价于一个单层神经网络
原因是因为全连接层只是对数据做仿射变换(affine transformation) ,多个仿射变换的叠加仍然是一个仿射变换,所以需要引入非线性变换
例如使用对隐藏变量按元素运算的份线性函数进行变换,再将结果作为下一个全连接层的输入,这个非线性函数即激活函数
激活函数:
1. ReLU(rectified linear unit)
给定元素x,该函数定义为:ReLu(x)=max(x,0)
2. sigmoid 变换数据到0-1之间
3. tanh 变换数据到-1,1之间
多层感知机的层数以及隐藏层中隐藏单元个数都是超参数,可以人为设定
文章来源:https://blog.csdn.net/qq_43401942/article/details/135701590
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:chenni525@qq.com进行投诉反馈,一经查实,立即删除!