推荐系统遇上深度学习(二十八)--知识图谱与推荐系统结合之MKR模型原理及实现

栏目: 数据库 · 发布时间: 5年前

知识图谱特征学习在推荐系统中的应用步骤大致有以下三种方式:

推荐系统遇上深度学习(二十八)--知识图谱与推荐系统结合之MKR模型原理及实现

依次训练的方法主要有:Deep Knowledge-aware Network(DKN)

联合训练的方法主要有:Ripple Network

交替训练主要采用multi-task的思路,主要方法有:Multi-task Learning for KG enhanced Recommendation (MKR)

本文先来介绍交替训练的方法MKR。

网上没有找到相关的论文,只有在一篇帖子里有所介绍,github上可以找到源代码进行学习。

1、MKR原理介绍

由于推荐系统中的物品和知识图谱中的实体存在重合,因此可以采用多任务学习的框架,将推荐系统和知识图谱特征学习视为两个分离但是相关的任务,进行交替式的学习。

MKR的模型框架如下图,其中左侧是推荐系统任务,右侧是知识图谱特征学习任务。推荐部分的输入是用户和物品的特征表示,点击率的预估值作为输出。知识图谱特征学习部分使用的是三元组的头节点和关系作为输入,预测的尾节点作为输出:

推荐系统遇上深度学习(二十八)--知识图谱与推荐系统结合之MKR模型原理及实现

由于推荐系统中的物品和知识图谱中的实体存在重合,所以两个任务并非相互独立。所以作者在两个任务中设计了交叉特征共享单元(cross-feature-sharing units)作为两者的连接纽带。

交叉特征共享单元是一个可以让两个任务交换信息的模块。由于物品向量和实体向量实际上是对同一个对象的两种描述,他们之间的信息交叉共享可以让两者都获得来自对方的额外信息,从而弥补了自身的信息稀疏性的不足,其结构如下:

推荐系统遇上深度学习(二十八)--知识图谱与推荐系统结合之MKR模型原理及实现

关于这个交叉单元具体实现,大家可以参照代码进行理解。

最后是损失函数部分,由于是交替训练的方式,所以在训练时首先固定推荐系统模块的参数,训练知识图谱特征学习模块的参数;然后固定知识图谱特征学习模块的参数,训练推荐系统模块的参数。

推荐系统模块是点击率预估模型,损失函数是对数损失加l2正则项;知识图谱特征学习模块希望预测得到的tail向量和真实的tail向量相近,因此首先计算二者的内积(内积可近似表示向量之间的余弦相似度),内积经过sigmoid之后取相反数,再加上l2正则项,即得到了知识图谱特征学习模块的损失。关于损失的计算,我们在代码里可以更清楚的看到。

2、MKR模型tensorflow实现

本文的代码地址为: https://github.com/princewen/tensorflow_practice/tree/master/recommendation/Basic-MKR-Demo

参考代码地址为: https://github.com/hwwang55/MKR

数据下载地址为: https://pan.baidu.com/s/1uHkQXK_ozAgBWcMUMzOfZQ 密码:qw30

在对数据进行预处理后,我们得到了两个文件:kg_final.txt和rating_final.txt

rating_final.txt数据形式如下,三列分别是user-id,item-id以及label(0是通过负采样得到的,正负样本比例为1:1)。

推荐系统遇上深度学习(二十八)--知识图谱与推荐系统结合之MKR模型原理及实现

kg_final.txt格式如下,三类分别代表h,r,t(这里entity和item用的是同一套id):

推荐系统遇上深度学习(二十八)--知识图谱与推荐系统结合之MKR模型原理及实现

好了,接下来我们重点介绍一下我们的MKR框架的构建。

模型输入

模型输入有以下几部分:用户的id、物品的id、推荐系统部分的label、知识图谱三元组的head、relation、tail的对应id:

def _build_inputs(self):

    self.user_indices = tf.placeholder(tf.int32,[None],'user_indices')

    self.item_indices = tf.placeholder(tf.int32,[None],'item_indices')

    self.labels = tf.placeholder(tf.float32,[None],'labels')

    self.head_indices = tf.placeholder(tf.int32,[None],'head_indices')

    self.tail_indices = tf.placeholder(tf.int32,[None],'tail_indices')

    self.relation_indices = tf.placeholder(tf.int32,[None],'relation_indices')

低层网络构建

低层网络指下面的部分:

推荐系统遇上深度学习(二十八)--知识图谱与推荐系统结合之MKR模型原理及实现

可以看到,user_id、item_id、head_id以及relation_id首先转换为对应的embedding,user_id和relation_id经由多层神经网络向上传播、而head_id和item_id经过交叉单元进行传播。

def _build_low_layers(self,args):

    self.user_emb_matrix = tf.get_variable('user_emb_matrix', [self.n_user, args.dim])

    self.item_emb_matrix = tf.get_variable('item_emb_matrix', [self.n_item, args.dim])

    self.entity_emb_matrix = tf.get_variable('entity_emb_matrix', [self.n_entity, args.dim])

    self.relation_emb_matrix = tf.get_variable('relation_emb_matrix', [self.n_relation, args.dim])



    # [batch_size, dim]

    self.user_embeddings = tf.nn.embedding_lookup(self.user_emb_matrix, self.user_indices)

    self.item_embeddings = tf.nn.embedding_lookup(self.item_emb_matrix, self.item_indices)

    self.head_embeddings = tf.nn.embedding_lookup(self.entity_emb_matrix, self.head_indices)

    self.relation_embeddings = tf.nn.embedding_lookup(self.relation_emb_matrix, self.relation_indices)

    self.tail_embeddings = tf.nn.embedding_lookup(self.entity_emb_matrix, self.tail_indices)



    for _ in range(args.L):

        user_mlp = Dense(input_dim=args.dim,output_dim=args.dim)

        tail_mlp = Dense(input_dim=args.dim,output_dim = args.dim)

        cc_unit = CrossCompressUnit(args.dim)



        self.user_embeddings = user_mlp(self.user_embeddings)

        self.item_embeddings,self.head_embeddings = cc_unit([self.item_embeddings,self.head_embeddings])

        self.tail_embeddings = tail_mlp(self.tail_embeddings)



        self.vars_rs.extend(user_mlp.vars)

        self.vars_rs.extend(cc_unit.vars)

        self.vars_kge.extend(tail_mlp.vars)

        self.vars_kge.extend(cc_unit.vars)

接下来,我们来看一下交叉单元的代码:

v,e = inputs



v = tf.expand_dims(v,dim=2)

e = tf.expand_dims(e,dim=1)





# [batch_size, dim, dim]

c_matrix = tf.matmul(v, e)

c_matrix_transpose = tf.transpose(c_matrix, perm=[0, 2, 1])



# [batch_size * dim, dim]

c_matrix = tf.reshape(c_matrix, [-1, self.dim])

c_matrix_transpose = tf.reshape(c_matrix_transpose, [-1, self.dim])



v_output = tf.reshape(tf.matmul(c_matrix,self.weight_vv) + tf.matmul(c_matrix_transpose,self.weight_ev),[-1,self.dim]) + self.bias_v



e_output = tf.reshape(tf.matmul(c_matrix, self.weight_ve) + tf.matmul(c_matrix_transpose, self.weight_ee),

                      [-1, self.dim]) + self.bias_e



return v_output,e_output

item对应的embedding用v表示,head对应的embedding用e表示,二者初始情况下都是batch * dim大小的。过程如下:

1、v扩展成三维batch * dim * 1,e扩展成三维batch * 1 * dim,随后二者进行矩阵相乘v * e,我们知道三维矩阵相乘实际上是后两维进行运算,因此得到c_matrix的大小为 batch * dim * dim

2、对得到的c_matrix进行转置,得到c_matrix_transpose,大小为batch * dim * dim。这相当于将e扩展成三维batch * dim * 1,v扩展成三维batch * 1 * dim,随后二者进行矩阵相乘e * v。这是两种不同的特征交叉方式。

3、对c_matrix和c_matrix_transpose 进行reshape操作,变为(batch * dim ) * dim的二维矩阵

4、定义两组不同的参数和偏置,分别得到交叉后的v_output和e_output.

高层网络构建

高层网络指下面的部分:

推荐系统遇上深度学习(二十八)--知识图谱与推荐系统结合之MKR模型原理及实现

对于推荐部分,可以采用内积直接得到CTR的预估值,也可以经过多层神经网络得到预估值;对于知识图谱部分,将head和relation对应的向量进行拼接,经过多层神经网络,得到一个tail对应向量的预估值,并与真实的tail向量计算内积。代码如下:

def _build_high_layers(self,args):

    #RS

    use_inner_product = True

    if use_inner_product:

        self.scores = tf.reduce_sum(self.user_embeddings*self.item_embeddings,axis=1)

    else:

        self.user_item_concat = tf.concat([self.user_embeddings,self.item_embeddings],axis=1)

        for _ in range(args.H - 1):

            rs_mlp = Dense(input_dim = args.dim * 2 , output_dim = args.dim * 2)

            self.user_item_concat = rs_mlp(self.user_item_concat)

            self.vars_rs.extend(rs_mlp.vars)



        rs_pred_mlp = Dense(input_dim=args.dim * 2,output_dim=1)

        self.scores = tf.squeeze(rs_pred_mlp(self.user_item_concat))

        self.vars_rs.extend(rs_pred_mlp)



    self.scores_normalized = tf.nn.sigmoid(self.scores)



    #KGE

    self.head_relation_concat = tf.concat([self.head_embeddings,self.relation_embeddings],axis=1)

    for _ in range(args.H - 1):

        kge_mlp = Dense(input_dim=args.dim * 2,output_dim = args.dim * 2)

        self.head_relation_concat = kge_mlp(self.head_relation_concat)

        self.vars_kge.extend(kge_mlp.vars)



    kge_pred_mlp = Dense(input_dim=args.dim * 2,output_dim = args.dim)

    self.tail_pred = kge_pred_mlp(self.head_relation_concat)

    self.vars_kge.extend(kge_pred_mlp.vars)

    self.tail_pred = tf.nn.sigmoid(self.tail_pred)



    self.scores_kge = tf.nn.sigmoid(tf.reduce_sum(self.tail_embeddings * self.tail_pred,axis=1))

    #self.rmse = tf.reduce_mean(tf.sqrt(tf.reduce_sum(tf.square(self.tail_embeddings - self.tail_pred),axis=1) / args.dim))

定义损失

推荐系统部分的损失是对数损失加l2正则项:

# RS

self.base_loss_rs = tf.reduce_mean(

    tf.nn.sigmoid_cross_entropy_with_logits(labels=self.labels, logits=self.scores))

self.l2_loss_rs = tf.nn.l2_loss(self.user_embeddings) + tf.nn.l2_loss(self.item_embeddings)

for var in self.vars_rs:

    self.l2_loss_rs += tf.nn.l2_loss(var)

self.loss_rs = self.base_loss_rs + self.l2_loss_rs * args.l2_weight

知识图谱特征学习模块用上一步计算的scores_kge的相反数再加上l2正则项:

# KGE

self.base_loss_kge = -self.scores_kge

self.l2_loss_kge = tf.nn.l2_loss(self.head_embeddings) + tf.nn.l2_loss(self.tail_embeddings)

for var in self.vars_kge:

    self.l2_loss_kge += tf.nn.l2_loss(var)

self.loss_kge = self.base_loss_kge + self.l2_loss_kge * args.l2_weight

参考文献

1、 http://baijiahao.baidu.com/s?id=1602210213239784098&wfr=spider&for=pc

推荐系统遇上深度学习(二十八)--知识图谱与推荐系统结合之MKR模型原理及实现

本文由石晓文 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。

转载、引用前需联系作者,并署名作者且注明文章出处。

本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。


以上所述就是小编给大家介绍的《推荐系统遇上深度学习(二十八)--知识图谱与推荐系统结合之MKR模型原理及实现》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

从问题到程序

从问题到程序

裘宗燕 / 机械工业出版社 / 2005-9-1 / 36.00元

本书以C作为讨论程序设计的语言,讨论了基本程序设计的各方面问题。书中给出程序实例时没有采用常见的提出问题,给出解答,再加些解释的简单三步形式,而是增加了许多问题的分析和讨论,以帮助读者认识程序设计过程的实质,理解从问题到程序的思考过程。书中还尽可能详尽地解释了许多与C语言和程序设计有关的问题。 本书适合作为高等院校计算机及相关专业的教材,也可供其他学习C程序设计语言的读者阅读。一起来看看 《从问题到程序》 这本书的介绍吧!

HTML 编码/解码
HTML 编码/解码

HTML 编码/解码

XML 在线格式化
XML 在线格式化

在线 XML 格式化压缩工具

Markdown 在线编辑器
Markdown 在线编辑器

Markdown 在线编辑器