一、激活函数
-
sigmod
$ g(z) = \frac{1}{1 + e^{-z}} $
适用于二分类问题/输出层为二进制情况
-
ReLU——most common choice(faster)
$ g(z) = \max(0,z)$
适用于回归问题,y≥0
- Linear activation function
$ g(z) = z $
there is no g!
适用于回归问题,y=+/-
- Softmax
sigmod
$ g(z) = \frac{1}{1 + e^{-z}} $
适用于二分类问题/输出层为二进制情况
ReLU——most common choice(faster)
$ g(z) = \max(0,z)$
适用于回归问题,y≥0