19 January 2017

技术方面

  • 为什么使用 ReLU
    • 在深度学习尤其是卷积神经网络中, 用的最多的是 ReLU 函数。
    • 直观上看, ReLU 是一个分段的线性函数
    • 提到一种理解ReLU的方案:类比一下 Boost 算法, 把 ReLU 看成是一个分段的, 用来 separate 数据的函数, 而不是一个去真正的拟合某个函数. 在机器学习中, 数据集都是有限的, 所以, 通过去分割数据空间, 只要分割的次数足够多, 那么, 总是可以得到正确的分割结果.
  • 请问人工神经网络中的activation function的作用具体是什么?为什么ReLu要好过于tanh和sigmoid function?
    • ReLU的优点:发现ReLU更容易学习优化。因为其分段线性性质,导致其前传,后传,求导都是分段线性。而传统的sigmoid函数,由于两端饱和,在传播过程中容易丢弃信息。
    • 缺点是不能用Gradient-Based方法。同时如果de-active了,容易无法再次active。不过有办法解决,使用maxout激活函数
  • Yoshua Bengio为什么能跟Hinton、LeCun相提并论?
    • 了解大神们都有多大的贡献

原创文章,转载请注明:转载自vividfree的博客

本文链接地址:201701 阅读笔记




blog comments powered by Disqus