卷积神经网络(CNN)前向传播算法

简介:

1. 回顾CNN的结构

    在上一篇里,我们已经讲到了CNN的结构,包括输出层,若干的卷积层+ReLU激活函数,若干的池化层,DNN全连接层,以及最后的用Softmax激活函数的输出层。这里我们用一个彩色的汽车样本的图像识别再从感官上回顾下CNN的结构。图中的CONV即为卷积层,POOL即为池化层,而FC即为DNN全连接层,包括了我们上面最后的用Softmax激活函数的输出层。

    从上图可以看出,要理顺CNN的前向传播算法,重点是输入层的前向传播,卷积层的前向传播以及池化层的前向传播。而DNN全连接层和用Softmax激活函数的输出层的前向传播算法我们在讲DNN时已经讲到了。

2. CNN输入层前向传播到卷积层

    输入层的前向传播是CNN前向传播算法的第一步。一般输入层对应的都是卷积层,因此我们标题是输入层前向传播到卷积层。

    我们这里还是以图像识别为例。

    先考虑最简单的,样本都是二维的黑白图片。这样输入层XX就是一个矩阵,矩阵的值等于图片的各个像素位置的值。这时和卷积层相连的卷积核WW就也是矩阵。

    如果样本都是有RGB的彩色图片,这样输入XX就是3个矩阵,即分别对应R,G和B的矩阵,或者说是一个张量。这时和卷积层相连的卷积核WW就也是张量,对应的最后一维的维度为3.即每个卷积核都是3个子矩阵组成。

    同样的方法,对于3D的彩色图片之类的样本,我们的输入XX可以是4维,5维的张量,那么对应的卷积核WW也是个高维的张量。

    不管维度多高,对于我们的输入,前向传播的过程可以表示为:

a2=σ(z2)=σ(a1W2+b2)a2=σ(z2)=σ(a1∗W2+b2)

    其中,上标代表层数,星号代表卷积,而b代表我们的偏倚, σσ为激活函数,这里一般都是ReLU。

    和DNN的前向传播比较一下,其实形式非常的像,只是我们这儿是张量的卷积,而不是矩阵的乘法。同时由于WW是张量,那么同样的位置,WW参数的个数就比DNN多很多了。

    为了简化我们的描述,本文后面如果没有特殊说明,我们都默认输入是3维的张量,即用RBG可以表示的彩色图片。

    这里需要我们自己定义的CNN模型参数是:

    1) 一般我们的卷积核不止一个,比如有K个,那么我们输入层的输出,或者说第二层卷积层的对应的输入就K个。

    2) 卷积核中每个子矩阵的的大小,一般我们都用子矩阵为方阵的卷积核,比如FxF的子矩阵。

    3) 填充padding(以下简称P),我们卷积的时候,为了可以更好的识别边缘,一般都会在输入矩阵在周围加上若干圈的0再进行卷积,加多少圈则P为多少。

    4) 步幅stride(以下简称S),即在卷积过程中每次移动的像素距离大小。

    这些参数我们在上一篇都有讲述。

3. 隐藏层前向传播到卷积层

    现在我们再来看普通隐藏层前向传播到卷积层时的前向传播算法。

    假设隐藏层的输出是M个矩阵对应的三维张量,则输出到卷积层的卷积核也是M个子矩阵对应的三维张量。这时表达式和输入层的很像,也是

al=σ(zl)=σ(al1Wl+bl)al=σ(zl)=σ(al−1∗Wl+bl)

    其中,上标代表层数,星号代表卷积,而b代表我们的偏倚, σσ为激活函数,这里一般都是ReLU。

    也可以写成M个子矩阵子矩阵卷积后对应位置相加的形式,即:

al=σ(zl)=σ(k=1Mzlk)=σ(k=1M(al1kWlk+blk))al=σ(zl)=σ(∑k=1Mzkl)=σ(∑k=1M(akl−1∗Wkl+bkl))

    和上一节唯一的区别仅仅在于,这里的输入是隐藏层来的,而不是我们输入的原始图片样本形成的矩阵。

    需要我们定义的CNN模型参数也和上一节一样,这里我们需要定义卷积核的个数K,卷积核子矩阵的维度F,填充大小P以及步幅S。

4. 隐藏层前向传播到池化层

    池化层的处理逻辑是比较简单的,我们的目的就是对输入的矩阵进行缩小概括。比如输入的若干矩阵是NxN维的,而我们的池化大小是kxk的区域,则输出的矩阵都是Nk×NkNk×Nk维的。

    这里需要需要我们定义的CNN模型参数是:

    1)池化区域的大小k

    2)池化的标准,一般是MAX或者Average。

5. 隐藏层前向传播到全连接层

    由于全连接层就是普通的DNN模型结构,因此我们可以直接使用DNN的前向传播算法逻辑,即:

al=σ(zl)=σ(Wlal1+bl)al=σ(zl)=σ(Wlal−1+bl)

    这里的激活函数一般是sigmoid或者tanh。

    经过了若干全连接层之后,最后的一层为Softmax输出层。此时输出层和普通的全连接层唯一的区别是,激活函数是softmax函数。

    这里需要需要我们定义的CNN模型参数是:

    1)全连接层的激活函数

    2)全连接层各层神经元的个数

 6. CNN前向传播算法小结

    有了上面的基础,我们现在总结下CNN的前向传播算法。

    输入:1个图片样本,CNN模型的层数L和所有隐藏层的类型,对于卷积层,要定义卷积核的大小K,卷积核子矩阵的维度F,填充大小P,步幅S。对于池化层,要定义池化区域大小k和池化标准(MAX或Average),对于全连接层,要定义全连接层的激活函数(输出层除外)和各层的神经元个数。

    输出:CNN模型的输出aLaL

    1) 根据输入层的填充大小P,填充原始图片的边缘,得到输入张量a1a1

    2)初始化所有隐藏层的参数W,bW,b  

    3)for ll=2 to L1L−1:

      a) 如果第ll层是卷积层,则输出为

al=ReLU(zl)=ReLU(al1Wl+bl)al=ReLU(zl)=ReLU(al−1∗Wl+bl)

        b) 如果第ll层是池化层,则输出为al=pool(al1)al=pool(al−1), 这里的pool指按照池化区域大小k和池化标准将输入张量缩小的过程。

      c) 如果第ll层是全连接层,则输出为

al=σ(zl)=σ(Wlal1+bl)al=σ(zl)=σ(Wlal−1+bl)

    4)对于输出层第L层:

aL=softmax(zL)=softmax(WLaL1+bL)aL=softmax(zL)=softmax(WLaL−1+bL)

 

    以上就是CNN前向传播算法的过程总结。有了CNN前向传播算法的基础,我们后面再来理解CNN的反向传播算法就简单多了。下一篇我们来讨论CNN的反向传播算法。


本文转自刘建平Pinard博客园博客,原文链接:http://www.cnblogs.com/pinard/p/6489633.html,如需转载请自行联系原作者


相关文章
|
15天前
|
机器学习/深度学习 安全 算法
【图论】【割点】【C++算法】928. 尽量减少恶意软件的传播 II
【图论】【割点】【C++算法】928. 尽量减少恶意软件的传播 II
|
27天前
|
机器学习/深度学习 存储 算法
神经网络分类算法原理详解
神经网络分类算法原理详解
49 0
|
1月前
|
机器学习/深度学习 算法 PyTorch
RPN(Region Proposal Networks)候选区域网络算法解析(附PyTorch代码)
RPN(Region Proposal Networks)候选区域网络算法解析(附PyTorch代码)
226 1
|
1月前
|
机器学习/深度学习 存储 自然语言处理
卷积神经元网络CNN基础
卷积神经元网络CNN基础
37 1
|
1月前
|
机器学习/深度学习
大模型开发:解释卷积神经网络(CNN)是如何在图像识别任务中工作的。
**CNN图像识别摘要:** CNN通过卷积层提取图像局部特征,池化层减小尺寸并保持关键信息,全连接层整合特征,最后用Softmax等分类器进行识别。自动学习与空间处理能力使其在图像识别中表现出色。
24 2
|
1月前
|
机器学习/深度学习 算法 计算机视觉
|
8天前
|
机器学习/深度学习 数据采集 TensorFlow
R语言KERAS深度学习CNN卷积神经网络分类识别手写数字图像数据(MNIST)
R语言KERAS深度学习CNN卷积神经网络分类识别手写数字图像数据(MNIST)
27 0
|
12天前
|
机器学习/深度学习 算法
【MATLAB】GA_ELM神经网络时序预测算法
【MATLAB】GA_ELM神经网络时序预测算法
285 9
|
12天前
|
机器学习/深度学习 数据采集 算法
|
14天前
|
机器学习/深度学习 自然语言处理 算法

热门文章

最新文章