Product quantization 乘积量化
Product quantization算法可以用在相似搜索和模型压缩等问题上。对在大数据量高维度数据集上的相似搜索问题,product quantization算法的效果和性能都是不错的。前几天就product quantization算法写了些个人理解《理解 product quantization 算法》
TensorFlow for Deep Learning Research
TensorFlow for Deep Learning Research 是Stanford大学新开的一门课程
- 虽然TensorFlow已经成为最火热的开源深度学习工具包,但笔者着实没想到Stanford竟会专门开门课介绍TensorFlow。TF背靠Google,俨然快成为新时代的基础工具包,难怪之前业内某知名人士呼吁避免使用TF,而使用更加开放中立的开源系统,比如Caffe, MxNet等。因为商业竞争,大厂需要建立护城河,那么是应该重视此问题,不过对于DL小蚂蚁来说,能够帮助快速了解DL技术及其效果的工具自然还是多用用为好。
- 对于对TF不熟的同学来说,该课程的讲义是一份很不错的资料,值得认真阅读。
深度学习的发展趋势
- 英文原文 10 Deep Learning Trends and Predictions for 2017
- 英文原文写于16年年底,中文翻译请见 深度学习在2017年的十大发展趋势及预测
- 文章列了10点趋势判断,这里就简单摘记如下。像其中的第2点,今年上半年Facebook就发表了用CNN做MT的paper,从paper的结果看,其效果超过Google之前的用RNN做MT的效果。
- 硬件将双倍加速摩尔定律
- 卷积神经网络(CNN)将占主导地位
- 设计者会更依赖 Meta-learning
- 强化学习仅会变得更具创造性
- 对抗与合作学习将称王
- 预测学习或者无监督学习的进展不会太多
- 从学习到工业化的转化
- 深度学习将会成为更多应用的组成部分
- 采用设计模式的频率会越来越高
- 工程化速度将超过理论出现的速度
白化、PCA白化、ZCA白化
来自UFLDL的资料
其他若干资料
简要总结下(推导和具体的算法流程比较简单,请见上面这些文章,这里就不赘述):
- 在一些算法中需要白化这样一个数据预处理步骤。举例来说,假设训练数据是图像,由于图像中相邻像素之间具有很强的相关性,所以用于训练时输入是冗余的。白化的目的就是降低输入的冗余性;更正式的说,我们希望通过白化过程使得学习算法的输入具有如下性质:(1)特征之间相关性较低;(2)所有特征具有相同的方差。
- PCA变换能完成第1个目的,即让特征之间变得正交,也就是降低了特征之间的相关性。在PCA变换的基础上再让各特征的方差相同,这就是PCA白化。所以PCA白化的结果是让不同的特征之间不相关且都具有单位方差
- ZCA白化是在PCA白化的基础上再多了一个处理,乘以矩阵U(由PCA分解得到的),将数据又变化回原始空间。
- 为什么要有ZCA白化呢?事实证明这也是一种生物眼睛(视网膜)处理图像的粗糙模型。具体而言,当你的眼睛感知图像时,由于一幅图像中相邻的部分在亮度上十分相关,大多数临近的“像素”在眼中被感知为相近的值。因此,如果人眼需要分别传输每个像素值(通过视觉神经)到大脑中,会非常不划算。取而代之的是,视网膜进行一个与ZCA中相似的去相关操作(这是由视网膜上的ON-型和OFF-型光感受器细胞将光信号转变为神经信号完成的)。由此得到对输入图像的更低冗余的表示,并将它传输到大脑。
上面介绍了白化,但在实际应用中,即使是在图像处理应用上,现在一般不会对图像做白化,不处理(协)方差的归一化,而是做期望方面的处理。参见 cs231n 的2017年春季课程的lecture 6, Training Neural Networks, Parts 1 , 或者参见图1。
图1 图像预处理的实战经验(图片来自cs231n的2017年春季课程 lecture 6)
GAN 生成式对抗网络
Ian Goodfellow在2014年提出GAN的概念,并逐渐引起AI业内人士的注意。其实,直到2015年,生成对抗网络还称不上是炙手可热。但自2016年以来,学界、业界对 GANs 的兴趣出现“井喷”:
- 多篇重磅论文陆续发表;
- Facebook、Open AI等AI业界巨头也加入对GANs的研究;
- 在NIPS 2016大会的会议大纲中被提到逾170次;
- Yan Lecun称GAN为“20年来机器学习领域最酷的想法”。
最近阅读了一些关于GAN的材料,真心觉得GAN是一个really impressive的工作。下面是两份很好的材料,看完后倒是能理解GAN的大概内容,不过后面还需要多阅读一些材料并做实践。
- 李宏毅的“深度学习”课程 lecture 9. 对抗生成网络
- 来自B站的视频,资源是由微博上的@爱可可-爱生活 上传的
- 斯坦福大学的cs231n 2017年春季课程 lecture 13. Generative Models
- 课件地址
- 课程视频的youtube地址
- 课程视频的B站地址 ,资源是由微博上的@爱可可-爱生活 上传的
原创文章,转载请注明:转载自vividfree的博客
本文链接地址:201708 阅读笔记