12/14/2017

自我正規化神經網路 (Self-Normalizing Neural Networks)

Günter Klambauer, Thomas Unterthiner, Andreas Mayr, and Sepp Hochreiter, Self-Normalizing Neural Networks, arXiv:1706.02515 [cs.LG].

使用 Banach fixed point theorem f(x) = x 證明讓每一層的訊號平均值為 0標準差為 1避免 梯度消失/爆炸問題 (Vanishing/Exploding Gradients Problems)可以訓練深度的神經網路

沒有留言:

張貼留言