Hinton于2006年的文章[1],Deep Learning的开山之作。其使用3个网路层作为特征提取层,再加一层softmax分类层。 使用Bernoulli-Bernoulli RBM预学习其特征层,然后再使用反向传播训练整个网路的参数。

  • 实验细节
    1. 其在反响传播学习整个网路时,再前几次的epoch中只更新softmax层的参数,然后再整体一起更新

AutoEncode with RBM


Hinton在文章[2]中使用4个RBM搭成了一个auto encode,其先使用RBM进行网路的预学习,再基于cross-entropy(见CG_MNSIT.m) 进行网路参数的微调,其Loss Function如下:

  • 疑惑
    1. 其顶层RBM的隐层单元使用线性输出,但还是基于Bernoulli-Bernoulli RBM?

Reference


  1. A fast learning algorithm for deep belief nets ∗
  2. Reducing the Dimensionality of Data with Neural Networks