Initialization in DL
Striving for Simplicity: The All Convolutional Net
contribution
stride convoulution替代pooling,实现没有pooling的 networkguided backpropagation,可视化的新方法,可以在没有
有2种方法去掉
pooling,并且不影响网络的性能:增大它前面一层的
convolution层的stride,目的是起到类似pooling的降维作用。- 这种做法有问题:虽然起到了降维的作用,但是相对于
pooling,相当于只考虑了top-left的features,实验结果证实效果确实不好。
- 这种做法有问题:虽然起到了降维的作用,但是相对于
把这一层的
pooling换成简单的convolution,但要保证:(1)相同大小的 filter size 和 stride;(2)和pooling相同大小的输出。这种没有前一种的问题,但是增加了 parameters 的数量。
作者说这可以看成是主动的学习
pooling,而不是固定的采用max/avg等方式。
Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks
这篇文章最主要的目的是把GAN作为一种representation learning的方法(对Generator和Discriminator都是这个目的,而不是生成图片),然后用学到的 features 用于supervised learning(classification等)。做了相关的实验验证(用学到的 features 在其它数据集上进行分类,对学到的features进行可视化)representation learning的效果很好。
Motivation
无标数据比有标数据多得多,如果能利用这些数据提取 features,然后用于
supervised任务,会很有帮助用于
supervised learning的CNN在CV方面取得了取得了很好的成绩,如果用于unsupervised learning是不是也可以取得比较不错的成绩。最近的
GAN很火,那是不是可以把GAN的结构用到CNN中(所以从这个角度看是:用GAN改进CNN,而不是用CNN改进GAN),把CNN改成一种可以用于unsupervised learning任务的结构。convincing evidence 表明:提出的 model 可以 learns a hierarchy of representations from object parts to scenes
Longest Common Substring
Description:
Given two strings, find the longest common substring. Return the length of it.
Notice:
The characters in substring should occur continuously in original string. This is different with subsequence.
Example:
Given A = “ABCD”, B = “CBCE”, return 2.
Maxout Networks & Network in Network
Maxout Networks
Motivation
dropout是一种 regularization 的方法,主要作用是用来减轻过拟合现象。实现方式是:以一定的概率,随机的把hidden units的输出值设成0,也就是随机的让某些hidden units失活,此时就相当于是一种集成模型的训练。
实验证实当网络比较深的时候,使用dropout能够很好的提升网络的 generalization 能力。
作者就想:如果不只是单单的把它作为一种提升模型性能的工具,而是直接应用到网络结构的内部,是不是能够更好的提高网络的性能呢?
注意:dropout只是一种 regularizer,而maxout是一种网络结构。