深度学习

深度学习入门路线

深度学习实战路线

深度学习必看书籍

前馈神经网络

总体框架

神经元

人工神经元:

激活函数性质

1
2
3
1.连续并可导的非线性函数
2.激活函数及其导数要尽可能简单,有利于提高网络计算效率
3.激活函数的导函数的值域要在一个合适的空间(不能太大也不能太小,否则会影响训练的效率和稳定性)

Sigmoid函数(S型曲线函数)

sigmoid函数的公式

1
2
3
4
5
6
1.分为logistic函数和Tanh函数
1.1 logistic函数(值域>0):
1.2 Tanh函数(值域(-1,1)):
2.sigmoid函数的性质:
2.1 sigmoid函数是饱和函数[x>-∞和x->+∞时,其f'(x)->0]
2.2 Tanh函数是零中心化的,logistic函数输出恒大于0的

sigmoid两种函数的图像:

ReLU函数(斜坡函数/修正线性单元)

ReLU函数公式

1
2
3
4
5
6
7
1.优点:
1.1 计算更加高效(采用ReLU的神经元只需要进行加、乘、比较操作)
1.2 具有生物学合理性(单侧抑制、宽兴奋边界) -- 能够保证大约50%的神经元会处于激活状态
1.3 ReLU函数为左饱和函数+x>0时f'(x)=1,在一定程度上缓解了神经网络的梯度消失问题,加速梯度下降的收敛速度
2.缺点:
2.1 输出是非零中心化的,给后一层的神经网络引入偏置偏移,会影响梯度下降的速度
2.2 死亡ReLU问题:ReLU神经元在训练时比较容易"死亡"(如果有一次不恰当的更新后,第一个隐藏层中的某个ReLU神经元在所有训练数据上都不能被激活,在以后的训练过程中永远不能被激活)

带泄露的ReLU

带参数的ReLU

ELU函数

Softplus函数

四种函数图对比:

Swish函数

1
2
1.自门控激活函数
2.通过设置得到1/0 --> 门的状态为"开"/"关"

GELU函数

1
2
1.高斯误差线性单元 --> 通过门控机制来调整其输出值的激活函数
2.特殊的Swish函数

Maxout单元

网络结构

三种网络结构:

前馈神经网络

反向传播算法

##

×

纯属好玩

扫码支持
扫码打赏,你说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦

文章目录
  1. 1. 深度学习入门路线
  2. 2. 深度学习实战路线
  3. 3. 深度学习必看书籍
  4. 4. 前馈神经网络
    1. 4.1. 神经元
      1. 4.1.1. Sigmoid函数(S型曲线函数)
      2. 4.1.2. ReLU函数(斜坡函数/修正线性单元)
        1. 4.1.2.1. 带泄露的ReLU
        2. 4.1.2.2. 带参数的ReLU
        3. 4.1.2.3. ELU函数
        4. 4.1.2.4. Softplus函数
      3. 4.1.3. Swish函数
      4. 4.1.4. GELU函数
      5. 4.1.5. Maxout单元
    2. 4.2. 网络结构
      1. 4.2.1. 前馈神经网络
  5. 5. 反向传播算法
    1. 5.1. ##
,