Skip to content

Latest commit

 

History

History
53 lines (20 loc) · 1.76 KB

第七章平均池化层和最大池化层抽象理解.md

File metadata and controls

53 lines (20 loc) · 1.76 KB

==抽象的理解一下平均池化层和最大池化层:==

自己总结的结论:平均池化层用于最后的分类,最大池化层用于一开始的特征提取。

在NiN中使用了全局平均池化层。

最后一个NiN块的输出通道即全局平均池化层的输入通道。

每层通道的网络矩阵就是一个类别

为什么要对其做平均池化呢?

相当于对于一个图片,对于这个位置的A类别有100,但是其他所有位置这个A类别只有0。那么从全局来看这个如果用最大池化层A就是100,过大了。但是对于平均池化来说,这个数不会过大,反而比较小,这样较好的反馈了应有的值。

当来网络是一个反向的学习过程,即给结果按照这种方式来规划参数使得其更好的预测。

但是对于这种将不同类别分出不同的网络矩阵进行全局计算预测的方法来说,应该使用全局平均池化。

对于别的使用最大池化层来进行==特征提取==

那是因为最大池化层是跟核大小有关的取一部分区域来进行池化。

取出核大小这样一部分区域来进行池化

不断移动核来通过结果来梯度下降来反推该核识别的特征

那么对于一个区域来说

这个小区域四个点,其中A在左上角概率为100而另外三个块为0。

此时我们应该认为是因为A的特征出现在了左上角而另外三个块没出现A。

所以对于这每一个小区域的识别中,我们认为其应该由最大概率来代表这块区域的这个特征的输出通道的一个小的块。

这样这个识别A的输出通道的很多个小块反应了这个图像中==各个块是A的概率==。

即完成了对于一整个图像的==特征提取==。

所以这时用最大池化层