达观数据漫谈Word2vec之skip-gram模型应用

企业动态
word2vec是Google研究团队的成果之一,它作为一种主流的获取分布式词向量的工具,在自然语言处理、数据挖掘等领域有着广泛的应用。达观数据的文本挖掘业务有些地方就使用了该项技术。

[[206899]]

word2vec是Google研究团队的成果之一,它作为一种主流的获取分布式词向量的工具,在自然语言处理、数据挖掘等领域有着广泛的应用。达观数据的文本挖掘业务有些地方就使用了该项技术。本文从以下几个方面简要介绍Word2vec的skip-gram模型:***部分对比word2vec词向量和one-hot词向量,引出word2vec词向量的优势所在;第二部分给出skip-gram模型的相关内容;第三部分简单介绍模型求解时优化方面的内容;第四部分通过例子简单给出词向量模型的效果;第五部分作出总结。

1. 优势

word2vec词向量与传统的one-hot词向量相比,主要有以下两个优势。

1.1低维稠密

一般来说分布式词向量的维度设置成100-500就足够使用,而one-hot类型的词向量维度与词表的大小成正比,是一种高维稀疏的表示方法,这种表示方法导致其在计算上具有比较低效率。

Fig.1. one-hot词向量

Fig.1. one-hot词向量

1.2蕴含语义信息

one-hot这种表示方式使得每一个词映射到高维空间中都是互相正交的,也就是说one-hot向量空间中词与词之间没有任何关联关系,这显然与实际情况不符合,因为实际中词与词之间有近义、反义等多种关系。Word2vec虽然学习不到反义这种高层次语义信息,但它巧妙的运用了一种思想:“具有相同上下文的词语包含相似的语义”,使得语义相近的词在映射到欧式空间后,具有较高的余弦相似度。

  1. simapple,banana=vecapple∙vecbananavecapple∙vecbanana 

Fig.2. word2vec词向量

Fig.2. word2vec词向量

2. skip-gram模型

2.1 训练样本

怎么把“具有相同上下文的词语包含相似的语义”这种思想融入模型是很关键的一步,在模型中,两个词是否出现在一起是通过判断这两个词在上下文中是否出现在一个窗口内。例如,原始样本“达观数据是一家做人工智能的公司”在送入模型前会经过图3所示处理(这里为了绘图简单假设窗口为2,一般窗口是设置成5)。

如图3所示,skip-gram模型的输入是当前词,输出是当前词的上下文,虽然我们训练模型的时候喂的是一个个分词好的句子,但内部其实是使用一个个word pair来训练。同样是之前的case“达观数据是一家做人工智能的公司”,假如窗口改为5,则(达观数据,人工智能)这个word pair会成为一个训练样本。假如再过来一个case“Google是一家人工智能公司”,则(Google,人工智能)也会成为一个训练样本。如果用来训练的语料库中会产生多个(达观数据,人工智能)、(Google,人工智能)这种的训练样本,则可以推测“达观数据”和“Google”会有较高的相似度,因为在训练样本中这两个词具有相同的输出,推而广之,也就是说这两个词具有相同的上下文。一言以蔽之“假如两个词具有相同的输出,则可反推出作为输入的两个词之间具有较高相似性”,接下来就是如何使用模型来实现上述目标。

Fig.3. 训练样本

Fig.3. 训练样本

2.2 skip-gram模型

skip-gram模型与自编码器(Autoencoder)类似,唯一的区别在于自编码器的输出等于输入,而skip-gram模型的输出是输入的上下文。那么,作为训练样本的word pair应该以什么样的方式输入给模型? 答案是one-hot向量,为了得到one-hot向量,必须首先知道训练语料中包含了多少词。因此,在训练之前会首先对语料进行统计,得到词表。假设词表长度为10000,词向量为300维,则skip-gram模型可表示为图4。

Fig.4. skip-gram 模型

Fig.4. skip-gram 模型

如图4所示,假设输入的word pair为(ants, able),则模型拟合的目标是Max Pableants ,同时也需要满足Min Pother wordsants,这里利用的是对数似然函数作为目标函数。上述表述中Pableants可表示为:

  1. Pableants= softmax( Xants 1×10000∙W10000×300) 
  2. softmaxX= exp(X1×300∙W300×1)i=110000exp(X1×300i∙W300×1) 

根据Pableants和 Pother wordsants,可构建似然函数:

  1. LW= Pableantsy=able∙ Pother wordsantsy=other words 

则:

  1. logLW =y=target wordlogPableants+logPother wordsants 
  2. =i10000y=target wordlogP(wordi|ants) 

将P(wordi|ants)代入有:

  1. logLW= i10000y=target wordlogexp(X1×300∙W300×1)i=110000exp(X1×300i∙W300×1) 

式中*表示如果表达式*为true,则*=1,否则*=0。接下来要做的是***化似然函数,也即:

  1. Max logLW 

要实现上述目标,可利用梯度上升法,首先对参数求偏导:

  1. ∂logLW∂wi=xiy=target word-P(target word|xi;W) 

接下来根据学习率对wi进行更新:

  1. wi= wi+ η∙∂logLW∂wi 

现在问题来了,模型训练完成后,词向量在哪呢?隐藏层的参数矩阵W10000×300就包含了所有词的词向量,该矩阵的行为词表长度,列为词向量维度,矩阵中的每一行表示一个词的词向量。由于输入层Xants 1×10000是one-hot向量,与隐藏层W10000×300点乘后是选中了该矩阵中的一行,如图5所示,这一行表示的是ants的词向量,而输出层是以ants的词向量为特征,以ants的上下文词作为类别来训练softmax分类器。

Fig.5.词的one-hot向量点乘隐藏层权值矩阵得到该词的词向量

Fig.5.词的one-hot向量点乘隐藏层权值矩阵得到该词的词向量

回到上文,为什么说(达观数据,人工智能)、(Google,人工智能)这种样本多了之后会得出达观数据和Google的相似度会比较高?当时解释的是因为这两个词有相同的输出,更深一步讲是因为输出层参数矩阵W300×10000是所有词向量共享的。具体来说,模型训练完成后会达到类似下面的效果: wv达观数据1×300∙ W300×10000≈wvGoogle1×300∙ W300×10000≈人工智能

由上面可直接看出来wv(达观数据) ≈wv(Google),其中wv(*)表示*的词向量,约等于是指两个向量所指的方向在空间中比较接近。

3. 模型优化

3.1 欠采样 subsample

图3中的例子中“是”、“的”这种词在任何场景中都可能出现,它们并不包含多少语义,而且出现的频率特别高,如果不加处理会影响词向量的效果。欠采样就是为了应对这种现象,它的主要思想是对每个词都计算一个采样概率,根据概率值来判断一个词是否应该保留。概率计算方法为:

  1. Pword=f(word)0.001+1∙0.001f(word) 

其中f(*)表示*出现的概率,0.001为默认值,具体函数走势如图6所示,可以看出,词语出现的概率越高,其被采样到的概率就越低。这里有一点IDF的味道,不同的是IDF是为了降低词的特征权重,欠采样是为了降低词的采样概率。

Fig.6. 欠采样函数

Fig.6. 欠采样函数

3.2 负采样 negative sample

以图4所示的模型为例,对每一个训练样本需要更新的参数个数有三百万(准确的说是三百万零三百,由于输入是one-hot,隐藏层每次只需要更新输入词语的词向量),这还是假设词表只有一万的情况下,实际情况会有五十万甚至更多,这时候参数就达到了亿级。训练过程中要对每个参数计算偏导,然后进行更新,这需要很大的计算资源。

负采样是加快训练速度的一种方法,这里的负可以理解为负样本。针对训练样本(ants, able),able这个词是正样本,词表中除able外的所有词都是负样本。负采样是对负样本进行采样,不进行负采样时,对每一个训练样本模型需要拟合一个正样本和九千九百九十九个负样本。加入负采样后,只需要从这九千九百九十九个负样本中挑出来几个进行拟合,大大节省了计算资源。那么应该挑几个负样本,根据什么进行挑呢?Google给出的建议是挑5-20个,怎么挑是根据词在语料中出现的概率,概率越大越有可能被选中,具体计算公式为:

  1. Pword=f(word)34i=110000f(wordi)34 

其中f(*)表示*出现的概率。

3.3 层次softmax

层次softmax的目的和负采样一样,也是为了加快训练速度,但它相对复杂,没有负采样这种来的简单粗暴。具体来说,使用层次softmax时图4中的模型输出层不再是使用one-hot加softmax回归,而是使用Huffman树加softmax回归。在模型训练的时候首先统计语料中词语的词频,然后根据词频来构建Huffman树,如图7所示,树的根节点可理解为输入词的词向量,叶子节点表示词表中的词,其它节点没有什么实际含义,仅起到辅助作用。

Fig.7. Huffman树

Fig.7. Huffman树

为什么使用Huffman树可以加快训练速度?答案是输出层不使用one-hot来表示,softmax回归就不需要对那么多0(也即负样本)进行拟合,仅仅只需要拟合输出值在Huffman树中的一条路径。假设词表大小为N,一条路径上节点的个数可以用log(N)来估计,就是说只需要拟合log(N)次,这给计算量带来了指数级的减少。此外,由于Huffman编码是不等长编码,频率越高的词越接近根节点,这也使计算量有所降低。

怎么对树中的节点进行拟合呢?如图7所示,假设训练样本的输出词是w2,则从根节点走到w2经过了nw2,2, n(w2,3)这两个节点。由于Huffman树是二叉树,这意味着只需要判断向左还是向右就可以从根节点走到w2,判断向左还是向右其实就是进行二分类。图7中的例子,“root(input)->left->left->right(w2)”这条路径的概率可表示为:

  1. Pw2input=Pleftinput∙Pleftinput∙Prightinput  
  2. =logistic(θ1∙Xinput)∙logistic(θ2∙Xinput)∙1-logistic(θ3∙Xinput)  
  3. logisticx= 11+e-x 

其中θi表示路径中第i个节点的权值向量。注意一点,softmax regression 做二分类的时候就退化为了logistic regression,因此虽然叫层次softmax但公式中其实用的是logistic function。根据上述公式就可构建根据Huffman树来进行softmax回归的cost function,进而根据梯度下降对模型进行训练求解。

4. word2vec应用

Google开源了word2vec源码,可以很方便的训练词向量,这里不再赘述。简单看个例子:

可以看出,当输入北京这个词时,与之相似的词语有“上海、广州、杭州、深圳…”,模型几乎学习到了一线城市的概念,效果还是可以的。

4.1 达观应用案例

特征降维:特征维度过高的时候,很容易出现特征之间具有较高的相关性。这种情况下可以利用词向量工具对特征进行聚类,将相关的特征归到一个维度里面。

特征扩展:针对短文本处理时,一个case往往提不出很多表意较强的特征,导致类别间区分度不强。这种情况下可以利用词向量工具对主要特征进行扩展,在不损失精度的前提下提高召回。

5. 总结

本文从例子出发,简单介绍了Word2vec的skip-gram模型,只作抛砖引玉。由于作者水平限制,文中难免有不当之处,欢迎指正。

【本文为51CTO专栏作者“达观数据”的原创稿件,转载可通过51CTO专栏获取联系】

戳这里,看该作者更多好文

责任编辑:武晓燕 来源: 51CTO专栏
相关推荐

2017-11-20 15:12:42

PythonTensorFlowWord2Vec

2018-08-05 07:50:22

自然语言Word2Vec深度学习

2017-08-17 16:50:19

自然语言Word2Vec嵌入

2023-12-19 17:41:38

AI模型

2017-08-04 10:16:52

自然语言处理嵌入机器学习

2023-12-12 12:43:36

2023-12-18 14:05:39

Facebook评议

2023-12-17 13:02:10

AI模型

2017-11-20 16:43:40

高斯混合模型算法K-means

2017-05-10 16:01:39

推荐系统算法实践

2014-04-29 14:56:07

大数据

2017-05-04 09:01:45

达观数据Docker部署

2017-07-03 15:22:51

达观数据技术研究

2021-12-28 17:03:29

数据质量分布式

2021-05-10 07:08:41

数据结构缓存

2017-03-16 20:00:17

Kafka设计原理达观产品

2017-04-27 18:09:26

item embedd推荐系统算法

2010-01-13 10:52:46

Rational Ro

2017-04-28 09:18:39

webpackWeb搭建
点赞
收藏

51CTO技术栈公众号