|
06、RNN、LSTM、GRU、MultiModel、Seq2Seq Model
为什么需要RNN? 解决序列式问题 随着时间维度的变化而变化
不定时长的数据
RNN与HMM的对比:
传统的做语音识别的用HMM效果不错
HMM里面的状态用one-hot vector 而RNN是分布式 类似Embedding词向量
语言模型:判断一句话有多像人话 联合概率公式 条件概率 贝叶斯公式
基于深度学习RNN的LM 每个时刻的输出是分类问题 用cross-entropy loss
BPTT :Through Time
RNN的训练为何容易梯度爆炸和梯度消失?
解决梯度爆炸比较简单:梯度截断 Gradient Clipping
解决梯度消亡是比较难的 LSTM的提出目的是为了解决RNN的梯度问题
LSTM只能部分解决RNN的梯度消失或爆炸问题 不能完全解决的
LSTM的核心:通过不同的门控制信息流 门相当于开关
看博客(LSTM的应用):The Unreasonable Effectiveness of Recurrent Neural Networks
http://karpathy.github.io/2015/05/21/rnn-effectiveness/
双向LSTM
看论文(2016年):Visualizing and Understanding Neural Models in NLP https://arxiv.org/pdf/1506.01066.pdf
GRU:Gated Recurrent Unit 比LSTM简单一些 但是效果却差不多 只有两个门:update gate reset gate
基于深度学习的机器翻译系统:端到端的方法 多模态的学习
MultiModel Learning
Seq2Seq Model
meaning space
东方老师AI官网:http://www.ai111.vip
有任何问题可联系东方老师微信:dfy_88888
【微信二维码图片】
|
-
01.png
(222.5 KB, 下载次数: 110)
-
02.png
(271.91 KB, 下载次数: 110)
-
03.png
(270.89 KB, 下载次数: 114)
-
04.png
(235.47 KB, 下载次数: 112)
-
05.png
(365.68 KB, 下载次数: 109)
-
06.png
(157.1 KB, 下载次数: 113)
-
07.png
(364.57 KB, 下载次数: 114)
-
08.png
(363.04 KB, 下载次数: 115)
-
09.png
(224.16 KB, 下载次数: 112)
-
10.png
(200.14 KB, 下载次数: 111)
-
11.png
(327.38 KB, 下载次数: 113)
-
12.png
(191.17 KB, 下载次数: 107)
-
13.png
(233.64 KB, 下载次数: 112)
-
14.png
(225.02 KB, 下载次数: 116)
-
15.png
(186.31 KB, 下载次数: 109)
-
16.png
(331.72 KB, 下载次数: 109)
-
17.png
(287.56 KB, 下载次数: 114)
-
18.png
(332.22 KB, 下载次数: 109)
|