文本分类fastText算法解析

1. 概述

在深度学习遍地开花的今天,浅层的网络结构甚至是传统的机器学习算法被关注得越来越少,但是在实际的工作中,这一类算法依然得到广泛的应用,或者直接作为解决方案,或者作为该问题的baseline,fastText就是这样的一个文本分类工具。fastText是2016年由facebook开源的用于文本分类的工具,fastText背后使用的是一个浅层的神经网络,在保证准确率的前提下,fastText算法的最大特点是快。

2. 算法原理

2.1. fastText的模型结构

fastText是如何保证速度的呢?首先fastText的模型结构如下所示:

在这里插入图片描述

假设文本有NN个词,如上图所示,首先将这NN个词映射成词向量,可以通过矩阵AA实现,得到NN个词的向量后,将这些向量相加并取均值,得到该段文本的向量表示,最后输入到线形分类器中,得到最终的分类。从模型结构上来看,模型结构也是相当简单,只是是逻辑回归LR模型的基础上增加了句子向量的计算。对于分类问题,其损失函数为:

L=i=1cyilog(σ(wx))L=-\sum_{i=1}^{c}y_ilog\left ( \sigma \left ( wx \right ) \right )

其中,cc表示的是类别,σ\sigma为激活函数,通常采用sigmoid函数。

2.2. 层次softmax

为了简化问题,假设隐含层的为xx,那么对于xx,其属于第ii个类别的概率为:

P(ciw1,w2,,wi,,wc,x)=exp(wix)j=1cexp(wjx)P\left ( c_i\mid w_1,w_2,\cdots ,w_i,\cdots ,w_c,x \right )=\frac{exp\left ( w_ix \right )}{\sum_{j=1}^{c}exp\left ( w_jx \right )}

如果类别较多时,上述公式的分母的计算会严重降低算法的速度,借鉴word2vec中的经验,使用层次softmax可以加速计算,带有层次softmax加速的fastText结构可以表示为:

在这里插入图片描述

如上图,最下面是一个Huffman树,每个叶子节点代表一个类别,这样可以对每一个叶子节点编号。同时,假设一个Huffman树有VV个叶子节点,那么该树有V1V-1个非叶子节点,将上述的Huffman树抽象出来,如下图所示:

在这里插入图片描述

对于特征xx该如何计算类别,如上图中,对于每一个叶子节点,都有对应的编码,如叶子节点c1c_1的编码为:0000,叶子节点c7c_7的编码为:11。对于Huffman树的构建过程非本文的重点,不在本文中重复。在模型参数初始化过程中,需要同时初始化非叶子节点的向量表示,如图中的a1,a2,,a6a_1,a_2,\cdots ,a_6,假设对于特征xx,其所属的类别为c3c_3,因此找到c3c_3的编码和路径,我们发现需要经过的非叶子节点为:a1,a2,a4a_1,a_2,a_4,其对应的编码为:001,因此计算过程为:

P(c3a1,a2,,a6,x)=(1σ(a1x))(1σ(a2x))σ(a4x)P\left ( c_3\mid a_1,a_2,\cdots ,a_6,x \right )=\left ( 1-\sigma \left ( a_1x \right ) \right )\cdot \left ( 1-\sigma \left ( a_2x \right ) \right )\cdot \sigma \left ( a_4x \right )

同样,每一个非叶子节点的向量也参与模型的训练。在预测过程中,直接可以计算出属于每一个叶子节点的概率。

参考文献

[1] Armand Joulin, Edouard Grave, Piotr Bojanowski, and Tomas Mikolov. Bag of tricks for efficient text classification. arXiv preprint arXiv:1607.01759, 2016

[2] fastText