Initialization in DL
Striving for Simplicity: The All Convolutional Net
contribution
stride convoulution
替代pooling
,实现没有pooling
的 networkguided backpropagation
,可视化的新方法,可以在没有
有2种方法去掉
pooling
,并且不影响网络的性能:增大它前面一层的
convolution
层的stride,目的是起到类似pooling
的降维作用。- 这种做法有问题:虽然起到了降维的作用,但是相对于
pooling
,相当于只考虑了top-left的features,实验结果证实效果确实不好。
- 这种做法有问题:虽然起到了降维的作用,但是相对于
把这一层的
pooling
换成简单的convolution
,但要保证:(1)相同大小的 filter size 和 stride;(2)和pooling
相同大小的输出。这种没有前一种的问题,但是增加了 parameters 的数量。
作者说这可以看成是主动的学习
pooling
,而不是固定的采用max/avg
等方式。
Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks
这篇文章最主要的目的是把GAN
作为一种representation learning
的方法(对Generator
和Discriminator
都是这个目的,而不是生成图片),然后用学到的 features 用于supervised learning
(classification
等)。做了相关的实验验证(用学到的 features 在其它数据集上进行分类,对学到的features
进行可视化)representation learning
的效果很好。
Motivation
无标数据比有标数据多得多,如果能利用这些数据提取 features,然后用于
supervised
任务,会很有帮助用于
supervised learning
的CNN
在CV
方面取得了取得了很好的成绩,如果用于unsupervised learning
是不是也可以取得比较不错的成绩。最近的
GAN
很火,那是不是可以把GAN
的结构用到CNN
中(所以从这个角度看是:用GAN
改进CNN
,而不是用CNN
改进GAN
),把CNN
改成一种可以用于unsupervised learning
任务的结构。convincing evidence 表明:提出的 model 可以 learns a hierarchy of representations from object parts to scenes
Longest Common Substring
Description:
Given two strings, find the longest common substring. Return the length of it.
Notice:
The characters in substring should occur continuously in original string. This is different with subsequence.
Example:
Given A = “ABCD”, B = “CBCE”, return 2.
Maxout Networks & Network in Network
Maxout Networks
Motivation
dropout
是一种 regularization 的方法,主要作用是用来减轻过拟合现象。实现方式是:以一定的概率,随机的把hidden units
的输出值设成0
,也就是随机的让某些hidden units
失活,此时就相当于是一种集成模型的训练。
实验证实当网络比较深的时候,使用dropout
能够很好的提升网络的 generalization 能力。
作者就想:如果不只是单单的把它作为一种提升模型性能的工具,而是直接应用到网络结构的内部,是不是能够更好的提高网络的性能呢?
注意:dropout
只是一种 regularizer,而maxout
是一种网络结构。