首页 > 代码库 > 【原创 深度学习与TensorFlow 动手实践系列 - 3】第三课:卷积神经网络 - 基础篇

【原创 深度学习与TensorFlow 动手实践系列 - 3】第三课:卷积神经网络 - 基础篇

 

【原创 深度学习与TensorFlow 动手实践系列 - 3】第三课:卷积神经网络 - 基础篇

 

技术分享

 

技术分享

 

提纲:

1. 链式反向梯度传到

2. 卷积神经网络 - 卷积层

3. 卷积神经网络 - 功能层

4. 实例:卷积神经网络MNIST分类

 

技术分享

 

期待目标:

1. 清楚神经网络优化原理,掌握反向传播计算

2. 掌握卷积神经网络卷积层的结构特点,关键参数,层间的连接方式。

3. 了解不同卷积神经网络功能层的作用,会进行简单的卷积神经网络结构设计。

4. 能够运行TensorFlow卷积神经网络 MNIST。 

 

技术分享

 

技术分享

 

技术分享

 

 

f(x, y, z) = (x + y) * z

(3.00 + 1.00) * -2.00 = -8.00 

 

技术分享

 

技术分享

 

技术分享

 

 技术分享

 

 技术分享

 

技术分享

 

技术分享

 

技术分享

 

技术分享

 

技术分享

 

技术分享

 

 技术分享

 

技术分享

技术分享

 

技术分享

 

 技术分享

 

技术分享

 

技术分享

1. 什么是卷积层

2. 有什么组成

3. 受什么影响,有何特点

4. 怎么工作

 

技术分享

卷积层

1. 卷积神经网络基本结构

2. 由多个卷积核组合形成

3. 每个卷积核同输入数据卷积运算,形成新的特征“图”

 

技术分享

技术分享

技术分享

技术分享

技术分享

 

技术分享

 

技术分享

 

技术分享

 

技术分享

 

技术分享

 

技术分享

 

技术分享

 

技术分享

 

技术分享

 

 技术分享

技术分享

 

技术分享

 

 

技术分享

 

技术分享

 

非线性激励层(None-linear activation layer):卷积是线性运算,增加非线性描述能力

 

技术分享

 

降维:特征图稀疏,减少数据运算量,保持精度

池化层(Pooling Layer)- 降维:

1. 数据降维,方便计算,存储(max,ave)

2. 池化过程中,每张特征图单独降维

技术分享

 

 归一化:特征的scale保持一致。

技术分享

 

技术分享

技术分享

 

技术分享

 

技术分享

 

技术分享

 

技术分享

 

技术分享

 

技术分享

 

技术分享

卷积神经网络(CNN) - 基础 演示代码:

https://github.com/wiibrew/DeepLearningCourseCodes

https://github.com/wiibrew/DeepLearningCourseCodes/blob/master/course_3_tf_mnist_cnn.py

https://github.com/wiibrew/DeepLearningCourseCodes/blob/master/course_3_tf_mnist_cnn.ipynb

卷积神经网络运行情况:

 

【原创 深度学习与TensorFlow 动手实践系列 - 3】第三课:卷积神经网络 - 基础篇