NN Regularization
正则化(Regularization)的目的是为了防止过拟合,即为了防止学习模型只是对训练集有很好的表现,而对其他不在训练集的样本则效果不好。
Dropout
Geoffrey E. Hinton组于2012年的文章[1]与[2]
训练时
就是一层的某个元素的值保留的概率为P,其为0的概率为1-P。具体可以表述为如下公式:
检测时
需要将加了的dropout的层的输出乘以(1-P)。或者在训练的时候乘以1/(1-P),检测的时候则不用进行处理(见文章[3])
注意:在预学习中使用dropout的时候,也需要将输出放大回来,即乘以1/(1-P)
DropConnect
coming soon
References
- Improving neural networks by preventing co-adaptation of feature detectors
- Dropout: A Simple Way to Prevent Neural Networks from Overfitting
- Improving deep neural networks for LVCSR using rectified linear units and dropout