Skip to content

Latest commit

 

History

History
25 lines (13 loc) · 932 Bytes

File metadata and controls

25 lines (13 loc) · 932 Bytes

15. 表示学习

笔记见这里

15.1 贪心逐层无监督预训练(Greedy Layer-Wise Unsupervised Pretraining)

比较现代监督学习方法(CNN,卷积神经网络)和无监督学习方法(VAE,变分自编码器)在MNIST数据集上的训练效果。前者训练效果可通过测试集准确率评估,后者通常直接依赖于对重建图像的视觉评估。

代码如下。

监督学习:CNN

无监督学习:VAE

15.2 迁移学习(Transfer learning)和领域自适应(Domain adaption)

15.3 半监督解释因果关系

代码:生成对抗网络(GAN)

15.4 分布式表示

15.5 得益于深度的指数增益(深度学习模型的优势) & 15.6 提供发现潜在原因的线索(正则化策略)

全部代码来源均已在首行注释标注。