【Recurrent Neural Network(RNN)】循环神经网络——李宏毅机器学习阅读笔记
创始人
2024-03-13 06:15:58
0

Recurrent Neural Network(RNN)

Example Application

Slot Filling
智慧订票系统:
在这里插入图片描述
在这里插入图片描述
How to represent each word as a vector?
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
但是光这样,feedforward Network是无法solve这一问题的,因为他无法区别是leave Taipei还是arrive Taipei。
那我们就希望这个neuron network是有记忆的,即看到过arrive/leave这个词。
在这里插入图片描述
这种有记忆的network就叫做 recurrent neural network(rnn)
在这里插入图片描述

举例:

我们假设所有的w=1,没有bias;所有的激活函数都是线性的;
要给memory(每一个时间点都会被洗掉)一个初始值,我们假设给0
在这里插入图片描述
在这里插入图片描述
接下来2被存到memory中
在这里插入图片描述
在这里插入图片描述
rnn会考虑input sequence的order
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

of course it can be deep…

在这里插入图片描述

Elman Network & Jordan Network

在这里插入图片描述

Bidirectional RNN

同时train 一个正向的rnn和逆向的rnn
在这里插入图片描述
在这里插入图片描述

Long Short-term Memory(LSTM)

Input/Output/Forget Gate何时打开/关闭 是需要网络自己学的
LSTM有三个操控信号,一个输入信号
在这里插入图片描述
“-”为什么放在short-term之间,而不是long short之间?
因为他只是比较长的short term。是否遗忘取决于forget gate,关闭时代表遗忘
在这里插入图片描述
假设在四个z输入之前,cell中存了一个“c”
在这里插入图片描述
在这里插入图片描述
如果选择不遗忘c(由f(zf)决定),则需要再加起来即c‘
在这里插入图片描述
在这里插入图片描述

LSTM-Example

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
original network
在这里插入图片描述
LSTM 直接将neurons替换成LSTM的cell即可
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
GRU是LSTM的simple版本,他只有两个gate,参数较少,所以比较不容易overfitting。simpleRNN指最原始的RNN,下图是目前标准的RNN。
在这里插入图片描述

Learning Target

在这里插入图片描述
RNN 用 Gradient Descent是可以train的
Backpropagation through time(BPTT) 基于时间的反向传播算法。
在这里插入图片描述
在这里插入图片描述
Why?
在这里插入图片描述
在这里插入图片描述
如何解决?
Clipping.
裁剪,当梯度过大时候进行裁剪。
在这里插入图片描述
为什么rnn会有这种奇特的特性呢?
sigmoid function? no
在这里插入图片描述
在这里插入图片描述
有什么样的技巧可以帮助我们解决这个问题呢?
在这里插入图片描述
可以让你的error surface不要那么崎岖, 在做LSTM时,你可以放心的把learning rate设置的特别小。

为什么我们要把RNN换成LSTM? LSTM可以handle gradient vanishing的问题。

为什么可以handle gradient vanishing的问题?
一旦你的weight,可以对memory的值发生影响时,这个影响会一直存在,除非forget gate关闭。不像rnn,其在每一个时间的会被forget掉。
在这里插入图片描述
在这里插入图片描述

Application

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
如何解决?
CTC
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
句法解析
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Attention-based Model

可以想成RNN的进阶版本
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Deep&Structured

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

相关内容

热门资讯

AWSECS:访问外部网络时出... 如果您在AWS ECS中部署了应用程序,并且该应用程序需要访问外部网络,但是无法正常访问,可能是因为...
AWSElasticBeans... 在Dockerfile中手动配置nginx反向代理。例如,在Dockerfile中添加以下代码:FR...
银河麒麟V10SP1高级服务器... 银河麒麟高级服务器操作系统简介: 银河麒麟高级服务器操作系统V10是针对企业级关键业务...
北信源内网安全管理卸载 北信源内网安全管理是一款网络安全管理软件,主要用于保护内网安全。在日常使用过程中,卸载该软件是一种常...
AWR报告解读 WORKLOAD REPOSITORY PDB report (PDB snapshots) AW...
AWS管理控制台菜单和权限 要在AWS管理控制台中创建菜单和权限,您可以使用AWS Identity and Access Ma...
​ToDesk 远程工具安装及... 目录 前言 ToDesk 优势 ToDesk 下载安装 ToDesk 功能展示 文件传输 设备链接 ...
群晖外网访问终极解决方法:IP... 写在前面的话 受够了群晖的quickconnet的小水管了,急需一个新的解决方法&#x...
不能访问光猫的的管理页面 光猫是现代家庭宽带网络的重要组成部分,它可以提供高速稳定的网络连接。但是,有时候我们会遇到不能访问光...
Azure构建流程(Power... 这可能是由于配置错误导致的问题。请检查构建流程任务中的“发布构建制品”步骤,确保正确配置了“Arti...