CNN通俗解析 cnn是什么意思


CNN通俗解析 cnn是什么意思

文章插图
cnn是什么意思(CNN的流行分析)
CNN的基础知识介绍 , TensorFlow的具体实现 , 对于初学者或者求职者来说都是不可多得的素材 。

定义:简而言之 , 卷积神经网络是一种深度学习模型或类似于人工神经网络的多层感知器 , 常用于分析视觉图像 。卷积神经网络的创始人是Yann LeCun , 著名的计算机科学家 , 目前在脸书工作 。他是第一个通过卷积神经网络解决MNIST数据集上手写数字问题的人 。
扬·勒库恩
卷积神经网络的出现是受到生物治疗过程的启发 , 因为神经元之间的连接模式类似于动物的视觉皮层组织 。
人脑的视觉结构
个别皮层神经元只在称为感受野的受限视野内对刺激作出反应 , 不同神经元的感受野部分重叠 , 从而可以覆盖整个视野 。
计算机视觉和人类视觉
如上图所示 , 我们在谈论任何类型的神经网络时 , 都不可能不提一点关于神经科学和人体(尤其是大脑)及其功能的知识 , 这些知识已经成为创建各种深度学习模型的主要灵感来源 。
卷积神经网络的体系结构:
卷积神经网络体系结构
如上图所示 , 卷积神经网络架构与常规人工神经网络架构非常相似 , 尤其是在网络的最后一层 , 即全连接 。此外 , 还需要注意的是 , 卷积神经网络可以接受多个特征图作为输入 , 而不是向量 。
我们来探讨一下卷积神经网络的基本组成和相关的数学运算过程 , 根据训练过程中学到的特征和属性对图像进行可视化和分类 。
输入层|输入层:输入层主要是nm3 RGB图像 , 与人工神经网络不同 , 人工神经网络的输入是n1维向量 。
RGB图像
卷积层|卷积层:在卷积层中 , 计算输入图像的面积与滤波器的权重矩阵之间的点积 , 并将结果作为该层的输出 。滤镜将滑过整个图像 , 并重复相同的点积操作 。这里要注意两件事:
滤镜的通道数必须与输入图像的通道数相同;
网络越深 , 使用的过滤器越多;您拥有的过滤器越多 , 您可以获得的边缘和特征检测就越多 。


正向卷积运算
卷积层输出的大小:
输出宽度:

输出高度:

其中包括:
w:输入图像的宽度 。
h:输入图像的高度 。
Fw:过滤器或核心的宽度
Fh:过滤器的高度
填充
生:移动的步伐
卷积层输出的通道数等于卷积操作期间使用的过滤器数 。
为什么卷积?有时候你可能会问自己 , 当初为什么要用卷积运算?为什么不从一开始就扩展输入图像矩阵?下面是答案 。如果这样做 , 我们最终会得到很多需要训练的参数 , 而大多数人没有能力以最快的方式解决计算量大的任务 。另外 , 由于卷积神经网络的参数较少 , 可以避免过拟合 。
池层|池层:目前广泛使用的池操作有两种——平均池和最大池 , 其中最大池是使用最多的一种 , 其效果一般比平均池好 。Pool层用于降低卷积神经网络上特征空之间的维数 , 但不会降低深度 。当使用最大池层时 , 采用最大数量的输入区域 , 而当使用平均池层时 , 采用输入区域的平均值 。

最大汇集
为什么要打台球?pooling layer的核心目标之一是提供空之间的方差 , 这意味着您或机器将能够识别该对象 , 即使它的外观以某种方式发生了变化 。有关池层的更多信息 , 请查看Yann LeCunn的文章 。
非线性层|非线性层:在非线性层 , 一般用ReLU激活函数代替传统的Sigmoid或Tan-H激活函数 。对于输入图像中的每个负值 , ReLU激活函数返回值0 , 而对于输入图像中的每个正值 , 它返回相同的值(有关激活函数的更深入的解释 , 请查看本文) 。
ReLU激活功能
全连接层}全连接层:在完全连接的层中 , 我们展平最后一个卷积层的输出 , 并将当前层的每个节点与下一层的另一个节点连接起来 。全层连接只是人工神经网络的另一种说法 , 如下图所示 。整个连接层中的操作与一般人工神经网络中的操作完全相同:


推荐阅读