欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

《动手学深度学习》文本预处理、语言模型、循环神经网络基础

程序员文章站 2024-03-21 09:16:23
...

文本预处理

文本是一类序列数据,一篇文章可以看作是字符或单词的序列,本节将介绍文本数据的常见预处理步骤,预处理通常包括四个步骤:
1.读入文本
2.分词
3.建立字典,将每个词映射到一个唯一的索引(index)
4.将文本从词的序列转换为索引的序列,方便输入模型

现有工具

我们前面介绍的分词方式非常简单,它至少有以下几个缺点:标点符号通常可以提供语义信息,但是我们的方法直接将其丢弃了类似“shouldn’t", “doesn’t"这样的词会被错误地处理类似"Mr.”, "Dr."这样的词会被错误地处理我们可以通过引入更复杂的规则来解决这些问题,但是事实上,有一些现有的工具可以很好地进行分词:spaCyNLTK

语言模型与数据集

一段自然语言文本可以看作是一个离散时间序列,给定一个长度为TT的词的序列w1,w2,,wTw_1,w_2,…,w_T,语言模型的目标就是评估该序列是否合理,即计算该序列的概率:
P(w1,w2,,wT).P(w_1, w_2, \ldots, w_T).
假设序列w1,w2,,wTw_1,w_2,…,w_T中的每个词是依次生成的,我们有
P(w1,w2,,wT)=t=1TP(wtw1,,wt1)=P(w1)P(w2w1)P(wTw1w2wT1)P(w_1, w_2, \ldots, w_T)= \prod_{t=1}^T P(w_t \mid w_1, \ldots, w_{t-1})\\= P(w_1)P(w_2 \mid w_1) \cdots P(w_T \mid w_1w_2\cdots w_{T-1})
如还有4个词的文本序列概率:
P(w1,w2,w3,w4)=P(w1)P(w2w1)P(w3w1,w2)P(w4w1,w2,w3).P(w_1, w_2, w_3, w_4) = P(w_1) P(w_2 \mid w_1) P(w_3 \mid w_1, w_2) P(w_4 \mid w_1, w_2, w_3).

语言模型的参数就是词的概率以及给定前几个词情况下的条件概率。我们可以维护一个大型文本语料库,词的概率通过该词在语料库中的相对词频计算:
P^(w1)=n(w1)n\hat P(w_1) = \frac{n(w_1)}{n}
P^(w2w1)=n(w1,w2)n(w1)\hat P(w_2 \mid w_1) = \frac{n(w_1, w_2)}{n(w_1)}
其中n(w1,w2)n(w_1,w_2)为语料库中以w1w_1作为第一个词,w2w_2作为第二个词的文本的数量。

n元语法

在此引入马尔科夫假设:一个词的出现只与前面nn个词相关,即nn阶马尔可夫链(Markov chain of order nn),在语言模型中使用n1n-1阶马尔科夫链,模型可改写为:
P(w1,w2,,wT)=t=1TP(wtwt(n1),,wt1).P(w_1, w_2, \ldots, w_T) = \prod_{t=1}^T P(w_t \mid w_{t-(n-1)}, \ldots, w_{t-1}) .
以上也叫nn元语法。如当n=2n=2,含有4个词的文本序列概率:
P(w1,w2,w3,w4)=P(w1)P(w2w1)P(w3w1,w2)P(w4w1,w2,w3)=P(w1)P(w2w1)P(w3w2)P(w4w3)P(w_1, w_2, w_3, w_4)= P(w_1) P(w_2 \mid w_1) P(w_3 \mid w_1, w_2) P(w_4 \mid w_1, w_2, w_3)\\ = P(w_1) P(w_2 \mid w_1) P(w_3 \mid w_2) P(w_4 \mid w_3)
nn分别为1、2和3时,我们将其分别称作一元语法(unigram)、二元语法(bigram)和三元语法(trigram)。

思考:nn元语法可能有哪些缺陷?
1.参数空间过大
2.数据稀疏

时序数据的采样

在训练中我们需要每次随机读取小批量样本和标签。
形式如:
XX:“想要有直升”,YY:“要有直升机”
XX:“要有直升机”,YY:“有直升机,”
XX:“有直升机,”,YY:“直升机,想”

XX:“要和你飞到”,YY:“和你飞到宇”
XX:“和你飞到宇”,YY:“你飞到宇宙”
XX:“你飞到宇宙”,YY :“飞到宇宙去”
其中时间步数为5,即每次取5个字符。其标签为向后走一步的5个字符,即预测字符数为1。
可以看到,如果序列的长度为TT,时间步数为nn,那么一共有TnT−n个合法的样本,但是这些样本有大量的重合,我们通常采用更加高效的采样方式。
我们有两种方式对时序数据进行采样,分别是随机采样和相邻采样。

随机采样

在随机采样中,每个样本是原始序列上任意截取的一段序列,相邻的两个随机小批量在原始序列上的位置不一定相毗邻。
我们以[0,1,...,29][0,1,...,29],30个数字的序列为例,批量大小(batch_size)为2,时间步数(num_steps)为6。
首先按时间步数将序列分组:(301)//6=4(30-1)//6=4(向下取整),分为4组,丢弃后面其他数。其中30130-1为标签YY预留预测空间。
《动手学深度学习》文本预处理、语言模型、循环神经网络基础
在分好的组中随机选择batch_size个样本,并取对应标签。
如第一批随机取到第2组和第3组,第二批随机取到第1组和第4组:

X:  tensor([[ 6,  7,  8,  9, 10, 11],
        [12, 13, 14, 15, 16, 17]]) 
Y: tensor([[ 7,  8,  9, 10, 11, 12],
        [13, 14, 15, 16, 17, 18]])

X:  tensor([[ 0,  1,  2,  3,  4,  5],
        [18, 19, 20, 21, 22, 23]]) 
Y: tensor([[ 1,  2,  3,  4,  5,  6],
        [19, 20, 21, 22, 23, 24]]) 

相邻采样

在相邻采样中,相邻的两个随机小批量在原始序列上的位置相毗邻。
继续使用上面的例子,[0,1,...,29][0,1,...,29],30个数字的序列,batch_size=2num_steps=6batch\_size=2,num\_steps=6
首先按batch_size=2batch\_size=2将原序列分为2组,每组30//batch_size=1530//batch\_size=15个,向下取整其余从数列后面丢弃,每次取样在对应的组上按顺序取出。
《动手学深度学习》文本预处理、语言模型、循环神经网络基础
则此处取处结果:

X:  tensor([[ 0,  1,  2,  3,  4,  5],
        [15, 16, 17, 18, 19, 20]]) 
Y: tensor([[ 1,  2,  3,  4,  5,  6],
        [16, 17, 18, 19, 20, 21]]) 

X:  tensor([[ 6,  7,  8,  9, 10, 11],
        [21, 22, 23, 24, 25, 26]]) 
Y: tensor([[ 7,  8,  9, 10, 11, 12],
        [22, 23, 24, 25, 26, 27]])

循环神经网络基础

任务目标

以周杰伦歌词为语料库,训练歌曲生成模型。实现随机输入汉字,生成歌词。在此使用循环神经网络实现。

循环神经网络

下图展示了如何基于循环神经网络实现语言模型。我们的目的是基于当前的输入与过去的输入序列,预测序列的下一个字符。循环神经网络引入一个隐藏变量HH,用HtH_t表示HH在时间步tt的值。HtH_t的计算基于XtX_tHt1H_t−1,可以认为HtH_t记录了到当前字符为止的序列信息,利用HtH_t对序列的下一个字符进行预测。
《动手学深度学习》文本预处理、语言模型、循环神经网络基础

循环神经网络的构造

假设XtRn×d\boldsymbol{X}_t \in \mathbb{R}^{n \times d}是时间步tt的小批量输入,HtRn×h\boldsymbol{H}_t \in \mathbb{R}^{n \times h}是该时间步的隐藏变量,则:
Ht=ϕ(XtWxh+Ht1Whh+bh).\boldsymbol{H}_t = \phi(\boldsymbol{X}_t \boldsymbol{W}_{xh} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hh} + \boldsymbol{b}_h).
其中:WxhRd×h,WhhRh×h,bhR1×h,ϕ\boldsymbol{W}_{xh} \in \mathbb{R}^{d \times h},\boldsymbol{W}_{hh} \in \mathbb{R}^{h \times h},\boldsymbol{b}_{h} \in \mathbb{R}^{1 \times h},\phi函数是非线性**函数。式子形如递推公式,则后一步记录了前一步的序列的历史信息,就像是神经网络当前时间步的状态或记忆一样。由于这种循环计算,运用此计算的网络即循环神经网络。
在输出层计算为:
Ot=HtWhq+bq.\boldsymbol{O}_t = \boldsymbol{H}_t \boldsymbol{W}_{hq} + \boldsymbol{b}_q.
其中WhqRh×q,bqR1×q \boldsymbol{W}_{hq} \in \mathbb{R}^{h \times q},\boldsymbol{b}_q \in \mathbb{R}^{1 \times q}~

one-hot向量

我们使用汉字的索引值进行训练,而为了消除其大小等干扰信息,我们将对其进行重新编码 – one-hot编码。如数字33,其编码为[0,0,0,1,0,...,0][0, 0, 0, 1, 0, ... , 0]其编码长度由索引值总量决定。如本例*有不同字符1027个,则编码长度为1027,第ii个索引值对应的第i+1i+1位为11(从梯度索引0开始)

剪裁梯度

循环神经网络中较容易出现梯度衰减或梯度爆炸,这会导致网络几乎无法训练。裁剪梯度(clip gradient)是一种应对梯度爆炸的方法。假设我们把所有模型参数的梯度拼接成一个向量gg,并设裁剪的阈值是θθ。裁剪后的梯度
min(θg,1)g\min\left(\frac{\theta}{\|\boldsymbol{g}\|}, 1\right)\boldsymbol{g}
L2L_2范数不超过θ\theta

困惑度

我们通常使用困惑度(perplexity)来评价语言模型的好坏。困惑度是对交叉熵损失函数做指数运算后得到的值。特别地,
最佳情况下,模型总是把标签类别的概率预测为1,此时困惑度为1
最坏情况下,模型总是把标签类别的概率预测为0,此时困惑度为正无穷
基线情况下,模型总是预测所有类别的概率都相同,此时困惑度为类别个数

相关标签: 动手学深度学习