图卷积实战——文本分类

栏目: 数据库 · 发布时间: 4年前

内容简介:本文将介绍基于基于文本的 GCN,使用 Pytorch 和基本的库。GCN 模型是目前很新颖的半监督学习方法。总的来说,它是将整个语料库嵌入到一个以文档或者单词为节点(有的带标签,有的不带标签)的图中,各节点之间根据它们的关系存在带有不同权重的边。然后输入带有标签的文档节点,训练GCN模型,预测没有标签的文档。本文选择圣经作为语料库,因为它是世界上最多阅读并且有着非常丰富文本结构的书籍。圣经包括66本书(创世纪、出埃及记等)以及1189个章节。本监督学习任务是训练一个语言模型能够准确分类没有标签的章节属于哪

本文将介绍基于基于文本的 GCN,使用 Pytorch 和基本的库。GCN 模型是目前很新颖的半监督学习方法。

总的来说,它是将整个语料库嵌入到一个以文档或者单词为节点(有的带标签,有的不带标签)的图中,各节点之间根据它们的关系存在带有不同权重的边。然后输入带有标签的文档节点,训练GCN模型,预测没有标签的文档。

本文选择圣经作为语料库,因为它是世界上最多阅读并且有着非常丰富文本结构的书籍。圣经包括66本书(创世纪、出埃及记等)以及1189个章节。本监督学习任务是训练一个语言模型能够准确分类没有标签的章节属于哪本书。(由于这个数据集的标签是全部已知,所以本文选择10%~20%的数据隐藏标签作为测试集。)

图卷积实战——文本分类

为了解决这个问题,语言模型首先要学会区分各种书籍(比如《创世纪》更多的是谈论亚当和夏娃,而《传道书》讲述了所罗门王的生平)。下面我们将展示文本 GCN 能够很好的捕捉这些信息。

语料库

图卷积实战——文本分类

为了能够让 GCN 捕捉章节的上下文,我们建立了表示章节和单词关系的图,如上图所示。节点由1189个章节和所有词汇组成,这些节点之间是带有权重的边。权重 Aij  定义如下:

图卷积实战——文本分类

上式中, PMI 是滑动窗口多对共现单词之间的逐点互信息。 #W 定义10个字节的长度, #W(i) 是包含单词  i  的滑动窗口数, #W(i,j)  是包含单词 i 的滑动窗口数,  #W  是语料库中滑动窗口总数。TF-IDF 是一种加权技术,字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。直观地说,具有高、正的 PMI 值的词之间具有高语义相关性,相反,我们不会在具有负 PMI 的词之间建立边。总的来说,TF-IDF 加权文档和 word 之间的边,捕获文档内的上下文。PMI 加权词汇之间的边,可以跨文档捕获上下文。

相比之下,不是基于图的模型,这种跨文档的上下文信息很难作为输入特征,并且模型必须标签从头开始学习它们。由于 GCN 可以提供文档之间的关联关系,这些信息于NLP 任务明确相关,所以可以预期 GCN 的表现将会更好。

计算 TF-IDF

计算 TF-IDF 相对简单,我们知道数学公式,并且理解它的原理,只需要在1189 个文档中使用TfidfVectorizer 模块,并将结果存储在 dataframe 中。为后面创建图时文档-单词之间的权重。代码如下:

<code>### Tfidf</code>
<code>vectorizer = TfidfVectorizer(input="content", max_features=None, tokenizer=dummy_fun, preprocessor=dummy_fun)</code>
<code>vectorizer.fit(df_data["c"])</code><code>df_tfidf = vectorizer.transform(df_data["c"])</code>
<code>df_tfidf = df_tfidf.toarray()</code>
<code>vocab = vectorizer.get_feature_names()</code>
<code>vocab = np.array(vocab)</code>
<code>df_tfidf = pd.DataFrame(df_tfidf,columns=vocab)</code>

计算词汇间 PMI

计算词汇之间的 PMI 要更复杂一些,首先我们需要在10个单词长度的滑动窗口内找到单词 ij 的共现,以方块矩阵的形式存储在 dataframe 中,其中行和列表示词汇表。然后使用之前的定义计算 PMI 。代码如下:

<code>### PMI between words</code>
<code>window = 10 # sliding window size to calculate point-wise mutual information between words</code>
<code>names = vocab</code><code>occurrences = OrderedDict((name, OrderedDict((name, 0) for name in names)) for name in names)</code>
<code># Find the co-occurrences:</code><code>no_windows = 0; print("calculating co-occurences")</code><code>for l in df_data["c"]:</code><code>    </code>
<code>for i in range(len(l)-window):</code><code>        </code>
<code>no_windows += 1</code><code>        </code>
<code>d = l[i:(i+window)]; </code>
<code>dum = []</code><code>       </code>
<code> for x in range(len(d)):</code><code>            </code>
<code>for item in d[:x] + d[(x+1):]:</code><code>                </code>
<code>if item not in dum:</code><code>                    </code>
<code>occurrences[d[x]][item] += 1; dum.append(item)</code><code>        </code>
<code>df_occurences = pd.DataFrame(occurrences, columns=occurrences.keys())</code>
<code>df_occurences = (df_occurences + df_occurences.transpose())/2 </code>
<code>## symmetrize it as window size on both sides may not be same</code><code>del occurrences</code>
<code>### convert to PMI</code><code>p_i = df_occurences.sum(axis=0)/no_windows</code>
<code>p_ij = df_occurences/no_windows</code><code>del </code>
<code>df_occurences</code><code>for col in p_ij.columns:</code><code>    </code>
<code>p_ij[col] = p_ij[col]/p_i[col]</code><code>for row in p_ij.index:</code><code>   </code>
<code>p_ij.loc[row,:] = p_ij.loc[row,:]/p_i[row]</code>
<code>p_ij = p_ij + 1E-9</code><code>for col in p_ij.columns:</code><code>   </code>
<code> p_ij[col] = p_ij[col].apply(lambda x: math.log(x))</code>

构图

现在我们得到了所有边的权重,可以开始构图 G 了。我们使用 networkx 模块来构图。这里要提的是整个项目的繁重计算主要在于计算词汇边的权重,因为需要迭代所有可能成对的单词组合,大约有6500个单词。(我们差不多花了两天时间计算这个,代码如下)

<code>def word_word_edges(p_ij):</code><code>   </code>
<code> dum = []; word_word = []; counter = 0</code><code>    </code>
<code>cols = list(p_ij.columns); cols = [str(w) for w in cols]</code><code>    </code>
<code>for w1 in cols:</code><code>        </code>
<code>for w2 in cols:</code><code>            </code>
<code>if (counter % 300000) == 0:</code><code>               </code>
<code> print("Current Count: %d; %s %s" % (counter, w1, w2))</code><code>            </code>
<code>if (w1 != w2) and ((w1,w2) not in dum) and (p_ij.loc[w1,w2] > 0):</code><code>               </code>
<code> word_word.append((w1,w2,{"weight":p_ij.loc[w1,w2]})); dum.append((w2,w1))</code><code>           </code>
<code> counter += 1</code><code>   </code>
<code> return word_word</code><code>   </code>
<code> </code><code>### Build graph</code><code>G = nx.Graph()</code><code>G.add_nodes_from(df_tfidf.index) </code>
<code>## document nodes</code><code>G.add_nodes_from(vocab) </code>
<code>## word nodes</code><code>### build edges between document-word</code>
<code> pairs</code><code>document_word = [(doc,w,{"weight":df_tfidf.loc[doc,w]}) for doc in df_tfidf.index for w in df_tfidf.columns]</code>
<code>G.add_edges_from(document_word)</code>
<code>### build edges between word-word </code>
<code>pairs</code><code>word_word = word_word_edges(p_ij)</code><code>G.add_edges_from(word_word)</code>

图卷积神经网络

图节点没有明确的物理空间信息,不像像素点,能够明确在中心点的左边还是右边。所以,要想进行卷积,要找到最能捕获图结构的每个节点的特征表示。作者通过将每个节点的卷积核权重 和特征空间  X 投影到图的傅立叶空间中来解决这个问题,使得卷积变成具有特征的节点的逐点乘法。具体的这里不做赘述,可以参照 kipf 他们的文章。

我们将在这里使用两层 GCN ,两层 GCN 之后的复杂张量由下式给出:

图卷积实战——文本分类

这里:

图卷积实战——文本分类

这里的 A 是图 G 的邻接矩阵, D 是图 G 的度矩阵。 W0 W1  分别是 GCN 第一层和第二层可学习的卷积核权重,也是需要被训练学习的。 X 是输入特征矩阵,是与节点数相同的维度的对角方形矩阵,这意味着输入是图中每个节点的 one-hot 编码。最后将输出馈送到具有softmax 函数的层,用于书籍分类。

双层 GCN 的Pytorch 代码如下:

<code>class gcn(nn.Module):</code><code>   </code>
<code> def __init__(self, X_size, A_hat, bias=True): # X_size = num features</code><code>      </code>
<code>  super(gcn, self).__init__()</code><code>      </code>
<code>  self.A_hat = torch.tensor(A_hat, requires_grad=False).float()</code><code>     </code>
<code>   self.weight = nn.parameter.Parameter(torch.FloatTensor(X_size, 330))</code><code>      </code>
<code>  var = 2./(self.weight.size(1)+self.weight.size(0))</code><code>     </code>
<code>   self.weight.data.normal_(0,var)</code><code>   </code>
<code>     self.weight2 = nn.parameter.Parameter(torch.FloatTensor(330, 130))</code><code>  </code>
<code>      var2 = 2./(self.weight2.size(1)+self.weight2.size(0))</code><code>     </code>
<code>   self.weight2.data.normal_(0,var2)</code><code>     </code>
<code>   if bias:</code><code>         </code>
<code>   self.bias = nn.parameter.Parameter(torch.FloatTensor(330))</code><code>      </code>
<code>      self.bias.data.normal_(0,var)</code><code>    </code>
<code>        self.bias2 = nn.parameter.Parameter(torch.FloatTensor(130))</code><code>     </code>
<code>       self.bias2.data.normal_(0,var2)</code><code>    </code>
<code>    else:</code><code>        </code>
<code>    self.register_parameter("bias", None)</code><code>   </code>
<code>     self.fc1 = nn.Linear(130,66)</code><code>        </code>
<code>    def forward(self, X): ### 2-layer GCN architecture</code><code>   </code>
<code>     X = torch.mm(X, self.weight)</code><code>   </code>
<code>     if self.bias is not None:</code><code>   </code>
<code>         X = (X + self.bias)</code><code>    </code>
<code>    X = F.relu(torch.mm(self.A_hat, X))</code><code>   </code>
<code>     X = torch.mm(X, self.weight2)</code><code>      </code>
<code>  if self.bias2 is not None:</code><code>       </code>
<code>     X = (X + self.bias2)</code><code>    </code>
<code>    X = F.relu(torch.mm(self.A_hat, X))</code><code>    </code>
<code>    return self.fc1(X)</code>

训练

总共的 1189 个章节,我们掩盖了111个标签(10%左右)。由于1189 个章节的标签分布很不均匀(如下图所示),所以一些分布低的类别我们不会隐藏,以确保 GCN 可以学习到 66 个类别。

图卷积实战——文本分类

结果

从上面的 loss vs epoch 图中可以看到,训练是很顺利的,损失大约在 2000 epoch的时候达到饱和。

图卷积实战——文本分类

随着训练进行,训练集准确度和测试集准确度同时增加,到 2000 epoch的时候,测试集准确度趋于饱和在 50% 左右。考虑到我们的类别有 66 个,假设模型以纯粹的机会预测,基准精度为 1.5%,相比之下 50% 已经很不错了。意思是,GCN 模型可以正确预测章节属于哪本书的时候有 50% ,即使它之前并没有见过这些章节。

图卷积实战——文本分类

GCN 可以捕捉文档内或者文档间的上下文信息,但是分类错误的章节呢?这意味着 GCN 模型失败吗?

例子:

书籍《马太福音》章节 27被模型预测为《路加》

查阅该章节的具体内容可以发现,该章节的内容和路加的部分内容很相似,都是在讲耶稣被处死的事情。

书籍《以赛亚》章节12 被模型预测为《诗篇》

同样的,《以赛亚》的 12 章节主要描述的是一些对上帝的赞美和歌颂,而这正是《诗篇》的全文主旨。

总结

GCN 在文本分类上是一个强大的模型,因为它能够捕捉文档内部和文档之间的信息。

项目地址

圣经数据集地址:

https://github.com/scrollmapper/bible_databases

图神经网络的参照:

https://arxiv.org/abs/1809.05679

项目源代码:

https://github.com/plkmo/Bible_Text_GCN


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

超级用户

超级用户

[美] 艾迪•尹 / 王喆,余宁 / 中信出版集团 / 2017-9 / 49.00

《超级用户》是一本可以让你和你的公司实现超常规增长的神奇的书。 多数人只有一个订书机,但有一天,全球著名市场调研公司尼尔森的高管艾迪•尹在和办公用品供应商的合作中发现,订书机的“死忠粉”们,平均每人有8个订书机。令人意想不到的是,相比那些需要更换订书机或遗失订书机的“普通”用户,他们的需求更强,购买第九个订书机的可能性更大。 有些人无肉不欢,有些人爱做手工,有些人痴迷于美国女孩玩偶。这......一起来看看 《超级用户》 这本书的介绍吧!

SHA 加密
SHA 加密

SHA 加密工具

XML、JSON 在线转换
XML、JSON 在线转换

在线XML、JSON转换工具

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具