首页 >> 大全

Deep Residual Learning for Image Recogni

2024-01-09 大全 40 作者:考证青年

Deep for Image

要解决的问题:

(1), 是否叠加越多越好?其中最显著的问题是 or .

(2), 随着网络深度的增加,很容易饱和,导致快速降解的问题。

的 ,

Deep Residual Learning for Image Recogni__Deep Residual Learning for Image Recogni

其中 X 的作用很大,有效地控制了梯度消减的问题,同时X也是一个非常经济的问题,只需要将前面的 map 与后面的 map进行-wise , by ,计算量很小。

Deep Residual Learning for Image Recogni_Deep Residual Learning for Image Recogni_

对paper中对比实验的观察有:

(1), ,对于plain ,34-layer的比18-layer的网络有着更高的 error,而18-layer的解空间是34-layer的解空间的一个子空间。

猜想:这个问题产生的原因不是梯度消弭引起的,因为在中使用了 BN,(BN保证前向传播的显示出差异),同时对回传的梯度也证实了在BN的作用下正常地norms。

BN除了将输出层的数据归一化到 mean=0, var=1的分布中,而且还有一个作用是 shift 问题,(越深的网络特征的扭曲越厉害。但特征本身对类别的标记是不变的。源空间与目标空间中条件概率一致,但是边缘概率不同,BN可以让边缘概率尽可能的接近。)

同时,将 归一化之后,

其导数是1,可以保持前面传过来的,原封不动的到下一层。

假如后面的激活函数是 ,

_Deep Residual Learning for Image Recogni_Deep Residual Learning for Image Recogni

归一化之后的line 是图中的红线,所以也是接近于线性。

关于我们

最火推荐

小编推荐

联系我们


版权声明:本站内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 88@qq.com 举报,一经查实,本站将立刻删除。备案号:桂ICP备2021009421号
Powered By Z-BlogPHP.
复制成功
微信号:
我知道了