欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

Word2vec 原理公式推到和代码实现

程序员文章站 2022-06-15 14:39:56
...

本文摘录整编了一些理论介绍,推导了word2vec中的数学原理;并考察了一些常见的word2vec实现,评测其准确率等性能,最后分析了word2vec原版C代码;针对没有好用的Java实现的现状,移植了原版C程序到Java。时间和水平有限,本文没有就其发展历史展开多谈,只记录了必要的知识点,并着重关注工程实践。

Word2vec 原理公式推到和代码实现

虽然我的Java方案速度比原版C程序高出1倍,在算法代码与原版C程序一致的情况下准确率仍然略低于原版C程序(不过依然是目前准确率最高的Java实现),并非完美,还有待改进。

本文的理论部分大量参考《word2vec中的数学原理详解》,按照我这种初学者方便理解的顺序重新编排、重新叙述。

背景

语言模型

在统计自然语言处理中,语言模型指的是计算一个句子的概率模型。

传统的语言模型中词的表示是原始的、面向字符串的。两个语义相似的词的字符串可能完全不同,比如“番茄”和“西红柿”。这给所有NLP任务都带来了挑战——字符串本身无法储存语义信息。该挑战突出表现在模型的平滑问题上:标注语料是有限的,而语言整体是无限的,传统模型无法借力未标注的海量语料,只能靠人工设计平滑算法,而这些算法往往效果甚微。

神经概率语言模型(Neural Probabilistic Language Model)中词的表示是向量形式、面向语义的。两个语义相似的词对应的向量也是相似的,具体反映在夹角或距离上。甚至一些语义相似的二元词组中的词语对应的向量做线性减法之后得到的向量依然是相似的。词的向量表示可以显著提高传统NLP任务的性能,例如《基于神经网络的高性能依存句法分析器》中介绍的词、词性、依存关系的向量化对正确率的提升等。

从向量的角度来看,字符串形式的词语其实是更高维、更稀疏的向量。若词汇表大小为N,每个字符串形式的词语字典序为i,则其被表示为一个N维向量,该向量的第i维为1,其他维都为0。汉语的词汇量大约在十万这个量级,十万维的向量对计算来讲绝对是个维度灾难。而word2vec得到的词的向量形式(下文简称“词向量”,更学术化的翻译是“词嵌入”)则可以*控制维度,一般是100左右。

word2vec

word2vec作为神经概率语言模型的输入,其本身其实是神经概率模型的副产品,是为了通过神经网络学习某个语言模型而产生的中间结果。具体来说,“某个语言模型”指的是“CBOW”和“Skip-gram”。具体学习过程会用到两个降低复杂度的近似方法——Hierarchical Softmax或Negative Sampling。两个模型乘以两种方法,一共有四种实现。这些内容就是本文理论部分要详细阐明的全部了。

Hierarchical Softmax

模型共同点

无论是哪种模型,其基本网络结构都是在下图的基础上,省略掉hidden layer:

Word2vec 原理公式推到和代码实现

为什么要去掉这一层呢?据说是因为word2vec的作者嫌从hidden layer到output layer的矩阵运算太多了。于是两种模型的网络结构是:

Word2vec 原理公式推到和代码实现

其中w(t)代表当前词语位于句子的位置t,同理定义其他记号。在窗口内(上图为窗口大小为5),除了当前词语之外的其他词语共同构成上下文。

CBOW

原理

CBOW 是 Continuous Bag-of-Words Model 的缩写,是一种根据上下文的词语预测当前词语的出现概率的模型。其图示如上图左。

CBOW是已知上下文,估算当前词语的语言模型。其学习目标是最大化对数似然函数:

Word2vec 原理公式推到和代码实现

其中,w表示语料库C中任意一个词。从上图可以看出,对于CBOW,

输入层是上下文的词语的词向量(什么!我们不是在训练词向量吗?不不不,我们是在训练CBOW模型,词向量只是个副产品,确切来说,是CBOW模型的一个参数。训练开始的时候,词向量是个随机值,随着训练的进行不断被更新)。

投影层对其求和,所谓求和,就是简单的向量加法。

输出层输出最可能的w。由于语料库中词汇量是固定的|C|个,所以上述过程其实可以看做一个多分类问题。给定特征,从|C|个分类中挑一个。

对于神经网络模型多分类,最朴素的做法是softmax回归:

Word2vec 原理公式推到和代码实现

softmax回归需要对语料库中每个词语(类)都计算一遍输出概率并进行归一化,在几十万词汇量的语料上无疑是令人头疼的。

不用softmax怎么样?比如SVM中的多分类,我们都知道其多分类是由二分类组合而来的:

Word2vec 原理公式推到和代码实现

这是一种二叉树结构,应用到word2vec中被作者称为Hierarchical Softmax:

Word2vec 原理公式推到和代码实现

上图输出层的树形结构即为Hierarchical Softmax。

非叶子节点相当于一个神经元(感知机,我认为逻辑斯谛回归就是感知机的输出代入f(x)=1/(1+e^x)),二分类决策输出1或0,分别代表向下左转或向下右转;每个叶子节点代表语料库中的一个词语,于是每个词语都可以被01唯一地编码,并且其编码序列对应一个事件序列,于是我们可以计算条件概率Word2vec 原理公式推到和代码实现

在开始计算之前,还是得引入一些符号:

  1. Word2vec 原理公式推到和代码实现从根结点出发到达w对应叶子结点的路径.

  2. Word2vec 原理公式推到和代码实现路径中包含结点的个数

  3. Word2vec 原理公式推到和代码实现路径Word2vec 原理公式推到和代码实现中的各个节点

  4. Word2vec 原理公式推到和代码实现词w的编码,Word2vec 原理公式推到和代码实现表示路径Word2vec 原理公式推到和代码实现第j个节点对应的编码(根节点无编码)

  5. Word2vec 原理公式推到和代码实现路径Word2vec 原理公式推到和代码实现中非叶节点对应的参数向量

    于是可以给出w的条件概率:

Word2vec 原理公式推到和代码实现

这是个简单明了的式子,从根节点到叶节点经过了Word2vec 原理公式推到和代码实现-1个节点,编码从下标2开始(根节点无编码),对应的参数向量下标从1开始(根节点为1)。

其中,每一项是一个逻辑斯谛回归:

Word2vec 原理公式推到和代码实现

考虑到d只有0和1两种取值,我们可以用指数形式方便地将其写到一起:

Word2vec 原理公式推到和代码实现

我们的目标函数取对数似然:

Word2vec 原理公式推到和代码实现

Word2vec 原理公式推到和代码实现代入上式,有

Word2vec 原理公式推到和代码实现

这也很直白,连乘的对数换成求和。不过还是有点长,我们把每一项简记为:

Word2vec 原理公式推到和代码实现

怎么最大化对数似然函数呢?分别最大化每一项即可(这应该是一种近似,最大化某一项不一定使整体增大,具体收敛的证明还不清楚)。怎么最大化每一项呢?先求函数对每个变量的偏导数,对每一个样本,代入偏导数表达式得到函数在该维度的增长梯度,然后让对应参数加上这个梯度,函数在这个维度上就增长了。这种白话描述的算法在学术上叫随机梯度上升法。

每一项有两个参数,一个是每个节点的参数向量Word2vec 原理公式推到和代码实现,另一个是输出层的输入Word2vec 原理公式推到和代码实现,我们分别对其求偏导数:

Word2vec 原理公式推到和代码实现

因为sigmoid函数的导数有个很棒的形式:

Word2vec 原理公式推到和代码实现

于是代入上上式得到:

Word2vec 原理公式推到和代码实现

合并同类项得到:

Word2vec 原理公式推到和代码实现

于是Word2vec 原理公式推到和代码实现的更新表达式就得到了:

Word2vec 原理公式推到和代码实现

其中,Word2vec 原理公式推到和代码实现是机器学习的老相好——学习率,通常取0-1之间的一个值。学习率越大训练速度越快,但目标函数容易在局部区域来回抖动。

再来Word2vec 原理公式推到和代码实现的偏导数,注意到Word2vec 原理公式推到和代码实现Word2vec 原理公式推到和代码实现Word2vec 原理公式推到和代码实现是对称的,所有直接将Word2vec 原理公式推到和代码实现的偏导数中的Word2vec 原理公式推到和代码实现替换为Word2vec 原理公式推到和代码实现,得到关于Word2vec 原理公式推到和代码实现的偏导数:

Word2vec 原理公式推到和代码实现

于是Word2vec 原理公式推到和代码实现的更新表达式也得到了。

不过Word2vec 原理公式推到和代码实现是上下文的词向量的和,不是上下文单个词的词向量。怎么把这个更新量应用到单个词的词向量上去呢?word2vec采取的是直接将Word2vec 原理公式推到和代码实现的更新量整个应用到每个单词的词向量上去:

Word2vec 原理公式推到和代码实现

其中,Word2vec 原理公式推到和代码实现代表上下文中某一个单词的词向量。我认为应该也可以将其平均后更新到每个词向量上去,无非是学习率的不同,欢迎指正。

代码分析

于是就可以得到两个参数更新的伪码:

Word2vec 原理公式推到和代码实现

在原版C代码中的对应关系是:

  1. = 0;
  2. // Propagate hidden -> output
  3. for (= 0; c < layer1_size; c++)
  4.     f += neu1[c] * syn1[+ l2];

f对应q,neu1对应Word2vec 原理公式推到和代码实现,syn1对应Word2vec 原理公式推到和代码实现

  1. // 'g' is the gradient multiplied by the learning rate
  2. = (1 - vocab[word].code[d] - f) * alpha;

对应伪码中的g。

  1. // Propagate errors output -> hidden
  2. for (= 0; c < layer1_size; c++)
  3.     neu1e[c] += g * syn1[+ l2];

对应伪码中的e。

  1. // Learn weights hidden -> output
  2. for (= 0; c < layer1_size; c++)
  3.     syn1[+ l2] += g * neu1[c];

对应伪码中的Word2vec 原理公式推到和代码实现

Skip-gram

原理

Skip-gram只是逆转了CBOW的因果关系而已,即已知当前词语,预测上下文。

其网络结构如下图所示:

Word2vec 原理公式推到和代码实现

上图与CBOW的两个不同在于

  1. 输入层不再是多个词向量,而是一个词向量

  2. 投影层其实什么事情都没干,直接将输入层的词向量传递给输出层

在对其推导之前需要引入一个新的记号:

u:表示w的上下文中的一个词语。

于是语言模型的概率函数可以写作:

Word2vec 原理公式推到和代码实现

注意这是一个词袋模型,所以每个u是无序的,或者说,互相独立的。

Hierarchical Softmax思想下,每个u都可以编码为一条01路径:

Word2vec 原理公式推到和代码实现

类似地,每一项都是如下简写:

Word2vec 原理公式推到和代码实现

把它们写到一起,得到目标函数:

Word2vec 原理公式推到和代码实现

类似CBOW的做法,将每一项简记为:

Word2vec 原理公式推到和代码实现

虽然上式对比CBOW多了一个u,但给定训练实例(一个词w和它的上下文{u}),u也是固定的。所以上式其实依然只有两个变量Word2vec 原理公式推到和代码实现Word2vec 原理公式推到和代码实现,对其求偏导数:

Word2vec 原理公式推到和代码实现Word2vec 原理公式推到和代码实现

具体求导过程类似CBOW,略过。

于是得到Word2vec 原理公式推到和代码实现的更新表达式:

Word2vec 原理公式推到和代码实现

同理利用对称性得到对Word2vec 原理公式推到和代码实现的偏导数:

Word2vec 原理公式推到和代码实现

于是得到Word2vec 原理公式推到和代码实现的更新表达式:

Word2vec 原理公式推到和代码实现

训练伪码如下:

Word2vec 原理公式推到和代码实现

word2vec源码中并没有等Word2vec 原理公式推到和代码实现更新完再更新Word2vec 原理公式推到和代码实现,而是即时地更新:

Word2vec 原理公式推到和代码实现

具体对应源码中的

  1. // Propagate hidden -> output
  2. for (= 0; c < layer1_size; c++)
  3.     f += syn0[+ l1] * syn1[+ l2];
  4. // 'g' is the gradient multiplied by the learning rate
  5. = (1 - vocab[word].code[d] - f) * alpha;
  6. // Propagate errors output -> hidden
  7. for (= 0; c < layer1_size; c++)
  8.     neu1e[c] += g * syn1[+ l2];
  9. // Learn weights hidden -> output
  10. for (= 0; c < layer1_size; c++)
  11.     syn1[+ l2] += g * syn0[+ l1];

f对应q,syn0对应v,syn1对应Word2vec 原理公式推到和代码实现,neu1e对应e

Negative Sampling

通过上一章的学习,我们知道无论是CBOW还是Skip-gram模型,其实都是分类模型。对于机器学习中的分类任务,在训练的时候不但要给正例,还要给负例。对于Hierarchical Softmax,负例放在二叉树的根节点上。对于Negative Sampling,负例是随机挑选出来的。据说Negative Sampling能提高速度、改进模型质量。

CBOW

给定训练样本,即一个词w和它的上下文Context(w),Context(w)是输入,w是输出。那么w就是正例,词汇表中其他的词语的就是负例。假设我们通过某种采样方法获得了负例子集NEG(w)。对于正负样本,分别定义一个标签:

Word2vec 原理公式推到和代码实现

也即正样本为1,负样本为0。

对于给定正样本Word2vec 原理公式推到和代码实现,我们希望最大化:

Word2vec 原理公式推到和代码实现

其中,

Word2vec 原理公式推到和代码实现

也就是说,当u是正例时,Word2vec 原理公式推到和代码实现越大越好,当u是负例时,Word2vec 原理公式推到和代码实现越小越好。因为Word2vec 原理公式推到和代码实现等于模型预测样本为正例的概率,当答案就是正的时候,我们希望这个概率越大越好,当答案是负的时候,我们希望它越小越好,这样才能说明该模型是个明辨是非的好同志。

每个词都是如此,语料库有多个词,我们将g累积得到优化目标。因为对数方便计算,我们对其取对数得到目标函数:

Word2vec 原理公式推到和代码实现Word2vec 原理公式推到和代码实现

Word2vec 原理公式推到和代码实现

记双重求和中的每一项为:

Word2vec 原理公式推到和代码实现

求梯度:

Word2vec 原理公式推到和代码实现Word2vec 原理公式推到和代码实现

于是Word2vec 原理公式推到和代码实现的更新方法为:

Word2vec 原理公式推到和代码实现

利用对称性得到关于Word2vec 原理公式推到和代码实现的梯度:

Word2vec 原理公式推到和代码实现

将该更新应用到每个词向量上去:

Word2vec 原理公式推到和代码实现

训练伪码为:

Word2vec 原理公式推到和代码实现

对应原版C代码的片段:

  1. = 0;
  2. for (= 0; c < layer1_size; c++)
  3.     f += neu1[c] * syn1neg[+ l2];
  4. if (> MAX_EXP)
  5.     g = (label - 1) * alpha;
  6. else if (< -MAX_EXP)
  7.     g = (label - 0) * alpha;
  8. else
  9.     g = (label - expTable[(int) ((+ MAX_EXP) * (EXP_TABLE_SIZE / MAX_EXP / 2))]) * alpha;
  10. for (= 0; c < layer1_size; c++)
  11.     neu1e[c] += g * syn1neg[+ l2];
  12. for (= 0; c < layer1_size; c++)
  13.     syn1neg[+ l2] += g * neu1[c];

Skip-gram

有了前三次的经验,这次轻车熟路地给出结论吧。颠倒样本的x和y部分,也即对Word2vec 原理公式推到和代码实现,我们希望最大化:

Word2vec 原理公式推到和代码实现

其中,

Word2vec 原理公式推到和代码实现

最终目标函数为:

Word2vec 原理公式推到和代码实现Word2vec 原理公式推到和代码实现Word2vec 原理公式推到和代码实现

其中,

Word2vec 原理公式推到和代码实现

分别求出梯度:

Word2vec 原理公式推到和代码实现Word2vec 原理公式推到和代码实现

Word2vec 原理公式推到和代码实现

得到两者的更新方法:

Word2vec 原理公式推到和代码实现+=Word2vec 原理公式推到和代码实现

Word2vec 原理公式推到和代码实现Word2vec 原理公式推到和代码实现

训练伪码为:

Word2vec 原理公式推到和代码实现

对应原版C代码片段:

  1. = 0;
  2. for (= 0; c < layer1_size; c++)
  3.     f += syn0[+ l1] * syn1neg[+ l2];
  4. if (> MAX_EXP)
  5.     g = (label - 1) * alpha;
  6. else if (< -MAX_EXP)
  7.     g = (label - 0) * alpha;
  8. else
  9.     g = (label - expTable[(int) ((+ MAX_EXP) * (EXP_TABLE_SIZE / MAX_EXP / 2))]) * alpha;
  10. for (= 0; c < layer1_size; c++)
  11.     neu1e[c] += g * syn1neg[+ l2];
  12. for (= 0; c < layer1_size; c++)
  13.     syn1neg[+ l2] += g * syn0[+ l1];

syn0对应Word2vec 原理公式推到和代码实现,syn1neg对应Word2vec 原理公式推到和代码实现,f运算后得到q,代码中有优化(后文分解),neu1e对应e。

更多细节

Huffman树

上文一直在用二叉树描述Hierarchical Softmax,这是因为我不想仿照大部分tutorial那样一下子拿出Huffman这么具体的细节。初期对word2vec的大框架还没把握住的时候突然看到这些细节的话,人会抓不住重点,造成学习成本无谓的上升。我当时看到有些tutorial第一节就在讲Huffman编码,还以为实现word2vec一定要用Huffman树呢。

其实根本不是的,任何二叉树都可以。Huffman树只是二叉树中具体的一种,特别适合word2vec的训练。

word2vec训练的时候按照词频将每个词语Huffman编码,由于Huffman编码中词频越高的词语对应的编码越短。所以越高频的词语在Hierarchical Softmax过程中经过的二分类节点就越少,整体计算量就更少了。

负采样算法

任何采样算法都应该保证频次越高的样本越容易被采样出来。基本的思路是对于长度为1的线段,根据词语的词频将其公平地分配给每个词语:

Word2vec 原理公式推到和代码实现

counter就是w的词频。

于是我们将该线段公平地分配了:

Word2vec 原理公式推到和代码实现

接下来我们只要生成一个0-1之间的随机数,看看落到哪个区间,就能采样到该区间对应的单词了,很公平。

但怎么根据小数找区间呢?速度慢可不行。

word2vec用的是一种查表的方式,将上述线段标上M个“刻度”,刻度之间的间隔是相等的,即1/M:

Word2vec 原理公式推到和代码实现

接着我们就不生成0-1之间的随机数了,我们生成0-M之间的整数,去这个刻度尺上一查就能抽中一个单词了。

在word2vec中,该“刻度尺”对应着table数组。具体实现时,对词频取了0.75次幂:

Word2vec 原理公式推到和代码实现

这个幂实际上是一种“平滑”策略,能够让低频词多一些出场机会,高频词贡献一些出场机会,劫富济贫。

sigmoid函数

类似的查表方法还有sigmoid函数的计算,因为该函数使用太频繁,而其值仅仅在靠近0的时候才会剧烈变化,远离0的方向很快趋近0和1。所以源码中也采用了“刻度查表”的方法,先算出了很多个刻度对应的函数值,运算中直接查表。这部分对应:

  1. expTable = (real *) malloc((EXP_TABLE_SIZE + 1) * sizeof(real));
  2. for (= 0; i < EXP_TABLE_SIZE; i++)
  3. {
  4.     expTable[i] = exp((/ (real) EXP_TABLE_SIZE * 2 - 1) * MAX_EXP); // Precompute the exp() table
  5.     expTable[i] = expTable[i] / (expTable[i] + 1);                   // Precompute f(x) = x / (x + 1)
  6. }