卷积神经网络(卷积层,激活函数relu,池化层,计算公式及api解释) -尊龙游戏旗舰厅官网
1. 卷积神经网络 (卷积层,激活函数,池化层,全连接层)
(1) 把神经网络的隐藏层分为卷积层和池化层(又叫下采样层)
· 卷积层 : 通过在原始图像上平移来提取特征
· 池化层 : 通过特征后稀疏参数来减少学习的参数,降低网络的复杂度。
2. 卷积层:(定义过滤器)
(1)大小 (观察窗口)、一般都是奇数(1*1、3*3、5*5)
(2)步长(窗口移动的步长),每次移动的像素大小,一般为一个像素
移动的步长太大,导致移动越过图片大小:
· 不越过,直接停止观察
· 就直接越过,越过之后,进行零填充,填充零的大小根据越过的大小进行填充
(3)带着权重 , 如果大小为3*3,即有9个权重
(4) 计算公式:
(5) 卷积网络的api:
input : 即:你输入了【多少张图片,图片的长,图片的宽,图片的通道数】,注意形状是4-d
filter: 过滤器,【过滤器的长,过滤器的宽,过滤器的输入通道,过滤器的输出通道】
3.新的激活函数-relu (f(x) = max(0,u))
(1) 增加激活函数: 增加网络的非线性分割能力
(2) 为什么不使用sigmoid等其他的激活函数,而采用relu
· 在反向传播求误差梯度时间,计算量相对大
· 对于深层网络,sigmoid函数反向传播时,很容易就会出现梯度爆炸的情况。
(3) 把卷积后的值输入到激活函数里面。
4. 池化层 (池化pooling计算)
(1)池化层主要的作用是特征提取(即删掉一些特征),通过去掉feature map(特征图)中不重要的样本,进一步减少参数数量
(2) 池化层的计算, 按照2*2,2的步长,取出最大的值
(3) 池化层计算的api
5. 全连接层 (full connected 层)
前面的卷积和池化相当于做特征工程,后面的全连接层相当于做特征加权。
最后的全连接层在整个卷积神经网络中起到 “分类器” 的作用。
总结
以上是尊龙游戏旗舰厅官网为你收集整理的卷积神经网络(卷积层,激活函数relu,池化层,计算公式及api解释)的全部内容,希望文章能够帮你解决所遇到的问题。
- 上一篇:
- 下一篇: