第1章 绪论
第2章 机器学习概述
第3章 线性模型
第4章 前馈神经网络
第5章 卷积神经网络
第6章 循环神经网络
第7章 网络优化与正则化
第8章 注意力机制与外部记忆
第9章 无监督学习
第10章 模型独立的学习方式
第11章 概率图模型
第12章 深度信念网络
第13章 深度生成模型
第14章 深度强化学习
第15章 序列生成模型
由于全连接前馈神经网络权重矩阵的参数非常多;自然图像中的物体都具有局部不变性特征(尺度缩放、平移、旋转等操作不影响其语义信息),而全连接前馈网络很难提取这些局部不变特征,如果直接利用全连接前馈神经网络进行训练参数巨大,计算量大。因此本文引入所以卷积神经网络来解决这些问题并对卷积神经网络的做一个比较细致的介绍。
含义:通过两个函数f和g生成第三个函数的一种数学运算,其本质是一种特殊的积分变换,表征函数f与g经过翻转和平移的重叠部分函数值乘积对重叠长度的积分。
给定一个输入信号序列x和滤波器w,卷积的输出为:
引入滤波器的滑动步长S和零填充P
卷积的结果按输出长度不同可以分为三类:
在信号中进行特征提取
在图像处理中,图像是以二维矩阵的形式输入到神经网络中,因此我们需要二维卷积。
步长为1,填充为0
步长为2,填充为0
步长为1,填充为1
步长为2,填充为1
卷积作为特征提取器(应用):
用卷积层代替全连接层
计算卷积需要进行卷积核翻转,翻转是不必要的。
卷积操作的目标是提取特征。
互相关:
除非特别声明,卷积一般指“互相关”。
特征映射(Feature Map):图像经过卷积后得到的特征,卷积核看成一个特征提取器。
卷积层:
输入:D个特征映射 M×N×D
输出:P个特征映射 M′×N′×P
卷积层的映射关系
卷积层虽然可以显著减少连接的个数,但是每一个特征映射的神经元个数并没有显著减少。
卷积网络是由卷积层、汇聚层、全连接层交叉堆叠而成。
典型结构
一个卷积块为连续M 个卷积层和b个汇聚层(M通常设置为2 ∼ 5,b为0或1)。一个卷积网络中可以堆叠N 个连续的卷积块,然后在接着K 个全连接层(N 的取值区间比较大,比如1 ∼ 100或者更大;K一般为0 ∼ 2)。
通过逐层计算提取图像特征。
低维特征映射到高维特征
如何增加输出单元的感受野
空洞卷积
通过给卷积核插入“空洞”来变相地增加其大小。
LeNet-5 是一个非常成功的神经网络模型,基于 LeNet-5 的手写数字识别系统在 90 年代被美国很多银行使用,用来识别支票上面的手写数字,LeNet-5 共有 7 层。
第一个现代深度卷积网络模型,首次使用了很多现代深度卷积网络的一些技术方法,使用GPU进行并行训练,采用了ReLU作为非线性激活函数,使用Dropout防止过拟合,使用数据增强,5个卷积层、3个汇聚层和3个全连接层。
Inception网络是由有多个inception模块和少量的汇聚层堆叠而成。
2015 ILSVRC winner (152层),错误率:3.57%
AlexNet中的滤波器(96 filters [11x11x3])
Ngram特征与卷积
文本序列的卷积
基于卷积模型的句子表示
文本序列的卷积模型
分布式系统:1202 个CPU 和176 块GPU
单机版:48 个CPU 和8 块GPU
走子速度:3 毫秒-2 微秒