深度学习|4.1 深L层神经网络 4.2 深层网络的正向传播

发布时间:2024年01月06日

4.1 深L层神经网络

在这里插入图片描述
对于某些问题来说,深层神经网络相对于浅层神经网络解决该问题的效果会较好。所以问题就变成了神经网络层数的设置。
其中 n [ i ] n^{[i]} n[i]表示第i层神经节点的个数, w [ l ] w^{[l]} w[l]代表计算第l层所采用的权重系数, b [ l ] b^{[l]} b[l]代表计算第l层所用的偏移量, g [ i ] g^[i] g[i]表示第i层所配置的激活函数,常见的激活函数有sigmoid,tanh、relu和leaky-relu等。 b [ i ] b^[i] b[i]表示第i层配置的参数/偏移量
在这里插入图片描述

4.2 深层网络中的正向传播

在这里插入图片描述
为了统一格式,可以将输入向量x改写成 a [ 0 ] a^{[0]} a[0]
在这里插入图片描述
在这里插入图片描述

文章来源:https://blog.csdn.net/Fangyechy/article/details/135344222
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。