CNN通俗解析 cnn是什么( 二 )


非线性层|Non-linearity Layer:在非线性层中,一般应用ReLU激活函数,而不是应用传统的Sigmoid或Tan-H激活函数 。对于输入图像中的每个负值,ReLU激活函数都返回0值,而对于输入图像中的每个正值,它返回雷同的值(有关激活函数的更深刻解释,请查看这篇文章) 。

CNN通俗解析 cnn是什么

文章插图
ReLU激活函数
全衔接层}Fully Connected Layer:在全衔接层中,我们将最后一个卷积层的输出展平,并将当前层的每个节点与下一层的另一个节点衔接起来 。全衔接层只是人工神经网络的另一种说法,如下图所示 。全衔接层中的操作与一般的人工神经网络中的操作完整雷同:
【CNN通俗解析 cnn是什么】


推荐阅读