1 文章的主要贡献:

2 数据集

ImageNet

ILSVRC-2012

ILSVRC-2010

3 网络结构

3.1 ReLU Nonlinearity

关于激活函数的概念可以参考这篇文章:

神经网络激励函数的作用是什么?有没有形象的解释?

ReLU非线性激活.和

如果把一个神经网络当作一个函数f,输入的数据作为x,那么标准模式为

$$ f(x) = tanh(x) $$

https://s3-us-west-2.amazonaws.com/secure.notion-static.com/1793a2f9-7736-498e-9873-5d81e87529c4/Untitled.png

或者是

$$ f(x) = \frac{1}{1+e^{-x}} $$