原理篇 | 推荐系统之矩阵分解模型

栏目: 数据库 · 发布时间: 4年前

原理篇 | 推荐系统之矩阵分解模型

导语 :本系列文章一共有三篇,分别是

《科普篇 | 推荐系统之矩阵分解模型》

《原理篇 | 推荐系统之矩阵分解模型》

《实践篇 | 推荐系统之矩阵分解模型》

第一篇用一个具体的例子介绍了MF是如何做推荐的。第二篇讲的是MF的数学原理,包括MF模型的目标函数和求解公式的推导等。第三篇回归现实,讲述MF算法在图文推荐中的应用实践( 将于后续发布 )。下文是第二篇—— 《原理篇 | 推荐系统之矩阵分解模型》 敬请阅读。

上一篇我们用一个简单的例子讲述了矩阵分解(Matrix Factorization, MF)是如何做推荐的,但没有深入到算法的细节。如果想编写自己的代码实现MF,那么就需要了解其中的细节了。本文是MF系列的第二篇文章,主要介绍了显式矩阵分解和隐式矩阵分解的数学原理,包括模型思想、目标函数、优化求解的公式推导等,旨在为需要了解算法细节的同学提供参考。

1.显式数据和隐式数据

MF用到的用户行为数据分为显式数据和隐式数据两种。显式数据是指用户对item的显式打分,比如用户对电影、商品的评分,通常有5分制和10分制。隐式数据是指用户对item的浏览、点击、购买、收藏、点赞、评论、分享等数据,其特点是用户没有显式地给item打分,用户对item的感兴趣程度都体现在他对item的浏览、点击、购买、收藏、点赞、评论、分享等行为的强度上。

显式数据的优点是行为的置信度高,因为是用户明确给出的打分,所以真实反映了用户对item的喜欢程度。缺点是这种数据的量太小,因为绝大部分用户都不会去给item评分,这就导致数据非常稀疏,同时这部分评分也仅代表了小部分用户的兴趣,可能会导致数据有偏。隐式数据的优点是容易获取,数据量很大。因为几乎所有用户都会有浏览、点击等行为,所以数据量大,几乎覆盖所有用户,不会导致数据有偏。其缺点是置信度不如显式数据的高,比如浏览不一定代表感兴趣,还要看强度,经常浏览同一类东西才能以较高置信度认为用户感兴趣。

根据所使用的数据是显式数据还是隐式数据,矩阵分解算法又分为两种[4,6]。使用显式数据的矩阵分解算法称为显式矩阵分解算法,使用隐式数据的矩阵分解算法称为隐式矩阵分解算法。由于矩阵分解算法有众多的改进版本和各种变体[4,5,6,7,8,9,10,11],本文不打算一一列举,因此下文将以实践中用得最多的矩阵分解算法为例,介绍其具体的数据原理,这也是spark机器学习库mllib中实现的矩阵分解算法[4,6]。从实际应用的效果来看,隐式矩阵分解的效果一般会更好。

2.显式矩阵分解

在本系列第一篇文章中,我们提到,矩阵分解算法的输入是user对item的评分矩阵(图1等号左边的矩阵),输出是User矩阵和Item矩阵(图1等号右边的矩阵),其中User矩阵的每一行代表一个用户向量,Item矩阵的每一列代表一个item的向量。User对item的预测评分用它们的向量内积来表示,通过最小化预测评分和实际评分的差异来学习User矩阵和Item矩阵。

原理篇 | 推荐系统之矩阵分解模型

图1

2.1 目标函数

为了用数学的语言定量表示上述思想,我们先引入一些符号。设 r ui  表示用户 对item 的显式评分,当 r ui  >0时,表示用户 对item 有评分,当 r ui  =0时,表示用户 对item 没有评分, x 表示用户 的向量, y 表示item 的向量,则显式矩阵分解的目标函数为:

原理篇 | 推荐系统之矩阵分解模型

其中 x y 都是 维的列向量, 为隐变量的个数,

原理篇 | 推荐系统之矩阵分解模型

是所有 x 构成的矩阵,

原理篇 | 推荐系统之矩阵分解模型

为所有 y 构成的矩阵, 为用户数, 为item数,λ为正则化参数。

在上述公式中,

为用户向量与物品向量的内积,表示用户 对物品 的预测评分,目标函数通过最小化预测评分和实际评分 r ui  之间的残差平方和,来学习所有用户向量和物品向量。这里的残差项只包含了有评分的数据,不包括没有评分的数据。目标函数中第二项是L2正则项,用于保证数值计算稳定性和防止过拟合。

2.2 求解方法:

求解 采用的是交替最小二乘法(alternative least square, ALS),也就是先固定 优化 ,然后固定 优化 ,这个过程不断重复,直到 收敛为止。每次固定其中一个优化另一个都需要解一个最小二乘问题,所以这个算法叫做交替最小二乘方法。

(1) 固定为上一步迭代值或初始化值,优化

此时, 被当做常数处理,目标函数被分解为多个独立的子目标函数,每个子目标函数对应一个用户。对于用户 ,目标函数为:

原理篇 | 推荐系统之矩阵分解模型

这里面残差项求和的个数等于用于 评过分的物品的个数,记为 个。把这个目标函数化为矩阵形式,得 

其中,

原理篇 | 推荐系统之矩阵分解模型

表示用户 对这 个物品的评分构成的向量,

原理篇 | 推荐系统之矩阵分解模型

表示这 个物品的向量构成的矩阵,顺序跟 R 中物品的顺序一致。

对目标函数J关于 x 求梯度,并令梯度为零,得:

原理篇 | 推荐系统之矩阵分解模型

解这个线性方程组,可得到 x 的解析解为:

原理篇 | 推荐系统之矩阵分解模型

(2) 固定为上一步迭代值或初始化值,优化 Y

此时, 被当做常数处理,目标函数也被分解为多个独立的子目标函数,每个子目标函数对应一个物品。类似上面的推导,我们可以得到 y 的解析解为:

原理篇 | 推荐系统之矩阵分解模型

其中,

原理篇 | 推荐系统之矩阵分解模型

表示 个用户对物品 的评分构成的向量,

原理篇 | 推荐系统之矩阵分解模型

表示这 个用户的向量构成的矩阵,顺序跟 R 中用户的顺序一致。

2.3 工程实现

当固定 时,各个 x 的计算是独立的,因此可以对 x 进行分布式并行计算。同理,当固定 X ,各个 y 的计算也是独立的,因此也可以对 y 做分布式并行计算。因为 X Y 中只包含了有评分的用户或物品,而非全部用户或物品,因此 x y 的计算时间复杂度为 O ( k 2 n u+ k 3 ) 其中 n 有评分的用户数或物品数, 为隐变量个数。

3.隐式矩阵分解

隐式矩阵分解与显式矩阵分解的一个比较大的区别,就是它会去拟合评分矩阵中的零,即没有评分的地方也要拟合。

3.1 目标函数

我们仍然用 r ui  表示用户 对物品 的评分,但这里的评分表示的是行为的强度,比如浏览次数、阅读时长、播放完整度等。当 r ui  >0时,表示用户 对物品i有过行为,当 r ui  =0时,表示用户 对物品i没有过行为。首先,我们定义一个二值变量 p ui  如下:

原理篇 | 推荐系统之矩阵分解模型

这个 p ui  是一个依赖于 r ui  的量,用于表示用户 对物品 是否感兴趣,也称为用户偏好。当用户 对物品 有过行为时,我们认为用户 对物品i感兴趣,此时 p ui  =1;当用户 对物品 没有过行为时,我们认为用户 对物品 不感兴趣,此时 p ui  =0。

模型除了要刻画用户对物品是否感兴趣外,而且还要刻画感兴趣或不感兴趣的程度,所以这里的隐式矩阵分解还引入了置信度的概念。从直观上来说,当 r ui  >0时, r ui  越大,我们越确信用户 喜欢物品 ,而当 r ui  =0时,我们不能确定用户 是否喜欢物品 ,没有行为可能只是因为用户 并不知道物品 的存在。

因此,置信度是 r ui  的函数,并且当 r ui  >0时,置信度是 r ui  的增函数;当 r ui  =0时,置信度取值要小。论文中给出的置信度 c ui  的表达式为:

原理篇 | 推荐系统之矩阵分解模型

r ui  >0时, c ui  关于 r ui  线性递增,表示对于有评分的物品,行为强度越大,我们越相信用户 对物品 感兴趣;当 r ui  =0时,置信度恒等于1,表示对所有没有评分的物品,用户不感兴趣的置信度都一样,并且比有评分物品的置信度低。用 x 表示用户 的向量, y 表示item 的向量,引入置信度以后,隐式矩阵分解[6]的目标函数为:

原理篇 | 推荐系统之矩阵分解模型

其中 x y 都是 维的列向量, 为隐变量的个数,

原理篇 | 推荐系统之矩阵分解模型

是所有 x 构成的矩阵,

原理篇 | 推荐系统之矩阵分解模型

为所有 y 构成的矩阵, 为用户数, 为item数,λ为正则化参数。目标函数里的内积 用于表示用户对物品的预测偏好,拟合实际偏好 p ui ,拟合强度由 c ui   控制。并且对于 p ui  =0的项也要拟合。目标函数中的第二项是正则项,用于保证数值计算稳定性以及防止过拟合。

3.2 求解方法

目标函数的求解仍然可以采用交替最小二乘法。具体如下:

(1) 固定为上一步迭代值或初始化值,优化

此时, 被当做常数处理,目标函数被分解为多个独立的子目标函数,每个子目标函数都是某个 x 的函数。对于用户 ,目标函数为:

原理篇 | 推荐系统之矩阵分解模型

把这个目标函数化为矩阵形式,得

其中,

原理篇 | 推荐系统之矩阵分解模型

为用户 对每个物品的偏好构成的列向量,

原理篇 | 推荐系统之矩阵分解模型

表示所有物品向量构成的矩阵, Λ 为用户 对所有物品的置信度 c ui  构成的对角阵,即:

原理篇 | 推荐系统之矩阵分解模型

对目标函数 关于 x 求梯度,并令梯度为零,得:

原理篇 | 推荐系统之矩阵分解模型

解这个线性方程组,可得到 x 的解析解为:

原理篇 | 推荐系统之矩阵分解模型

(2) 固定为上一步迭代值或初始化值,优化 Y

此时, 被当做常数处理,目标函数也被分解为多个独立的子目标函数,每个子目标函数都是关于某个 y 的函数。通过同样的推导方法,可以得到 y 的解析解为:

原理篇 | 推荐系统之矩阵分解模型

其中,

原理篇 | 推荐系统之矩阵分解模型

为所有用户对物品 的偏好构成的向量,

原理篇 | 推荐系统之矩阵分解模型

表示所有用户的向量构成的矩阵, Λ i   为所有用户对物品 的偏好的置信度构成的对角矩阵,即

原理篇 | 推荐系统之矩阵分解模型

3.3 工程实现

由于固定 时,各个 x 的求解都是独立的,所以在固定 时可以并行计算各个 x u ,同理,在固定X时可以并行计算各个 y

在计算 x y 时,如果直接用上述解析解的表达式来计算,复杂度将会很高。以 x 的表达式来说, Λ Y 这一项就涉及到所有物品的向量,少则几十万,大则上千万,而且每个用户的 都不一样,每个用户都算一遍时间上不可行。所以,这里要先对 x 的表达式化简,降低复杂度。

注意到 Λ 的特殊性,它是由置信度构成的对角阵,对于一个用户来说,由于大部分物品都没有评分,以此 Λ 对角线中大部分元素都是1,利用这个特点,我们可以把 Λ 拆成两部分的和,即

原理篇 | 推荐系统之矩阵分解模型

其中I为单位阵, Λ u   - I  为对角阵,并且对角线上大部分元素为0,于是, 可以重写为如下形式:

原理篇 | 推荐系统之矩阵分解模型

分解成这两项之后,第一项 Y Y 对每个用户都是一样的,只需要计算一次,存起来,后面可以重复利用,对于第二项,由于 Λ - I  为对角线大部分是0的对角阵,所以计算 ( Λ - I  ) Y 的复杂度是 O ( k 2 n u ) 其中 n Λ - I  中非零元的个数,也就是用户 评过分的物品数,通常不会很多,所以整个 Y Λ u Y T 的计算复杂度由 O ( k 2 M ) 降为 O ( k 2 n u ) 由于 M>> n u ,所以计算速度大大加快。对于 x 表达式的 Λ P u 这一项,则应 (   Λ P u )   这样计算,利用 P 中大部分元素是0的特点,将计算复杂度由 O ( kM  ) 降低到 O ( kn u )。通过使用上述数学技巧,整个 x u 的计算复杂度可以降低到 O ( k 2 n u + k 3 ) ,其中 n u 是有评分的用户数或物品数, 为隐变量个数,完全满足在线计算的需求。

4.增量矩阵分解算法

无论是显式矩阵分解,还是隐式矩阵分解,我们在模型训练完以后,就会得到训练集里每个用户的向量和每个物品的向量。假设现在有一个用户,在训练集里没出现过,但是我们有他的历史行为数据,那这个用户的向量该怎么计算呢?当然,最简单的方法就是把这个用户的行为数据合并到旧的训练集里,重新做一次矩阵分解,进而得到这个用户的向量,但是这样做计算代价太大了,在时间上不可行。

为了解决训练数据集以外的用户(我们称之为新用户)的推荐问题,我们就需要用到增量矩阵分解算法。增量矩阵分解算法能根据用户历史行为数据,在不重算所有用户向量的前提下,快速计算出新用户向量。

在交替最小二乘法里,当固定 计算 x 时,我们只需要用到用户 的历史行为数据 r ui  以及 的当前值,不同用户之间 x u 的计算是相互独立的。这就启发我们,对于训练集以外的用户,我们同样可以用他的历史行为数据以及训练集上收敛时学到的 Y ,来计算新用户的用户向量。下面的图2表示了这一过程。

原理篇 | 推荐系统之矩阵分解模型

增量矩阵分解

设用户历史行为数据为 P u ={ P ui  },训练集上学到的物品矩阵为 Y ,要求解的用户向量为 x u ,则增量矩阵分解算法求解的目标为:

原理篇 | 推荐系统之矩阵分解模型

这个目标函数跟第3节中固定 时求解 x 的目标函数是一样的,但有两个不同点:

(1)这里的 是不需要迭代的,它是MF在训练集上收敛时得到的 Y

(2)用户的历史行为数据 P 要过滤掉在Y中没出现过的物品。由于 是固定的,我们不需要迭代,直接通过 x 的解析表达式求解 x u ,即:

原理篇 | 推荐系统之矩阵分解模型

式中的所有符号和上一节相同。

事实上,增量矩阵分解的目标函数中的 也不一定要是MF在训练集上学出来的,只要 中的每个向量都能表示对应物品的特征就行,也就是说, 可以是由其他数据和其他算法事先学出来的。矩阵分解的增量算法在图文推荐系统中有着广泛应用,具体的应用将在下一篇文章中介绍。

5.推荐结果的可解释性

好的推荐算法不仅要推得准确,而且还要有良好的可解释性,也就是根据什么给用户推荐了这个物品。传统的ItemCF算法就有很好的可解释性,因为在ItemCF中,用户 对物品 的预测评分 R  ( u, i  的计算公式为

原理篇 | 推荐系统之矩阵分解模型

其中 N ( )   表示用户 有过行为的物品集合, r uj  表示用户 对物品 的历史评分, s ji  表示物品 和物品 的相似度。在这个公式中, N ( ) 中的物品 R ( u , i )   的贡献为 r uj  s ji ,因此可以很好地解释物品 具体是由 N ( u ) 中哪个物品推荐而来。那对于矩阵分解算法来说,是否也能给出类似的可解释性呢?答案是肯定的。

以隐式矩阵分解为例,我们已经推导出,已知物品的矩阵 时,用户 的向量的计算表达式为:

原理篇 | 推荐系统之矩阵分解模型

假设物品 的向量为 y i ,那么用户 对物品 的预测评分为:

原理篇 | 推荐系统之矩阵分解模型

原理篇 | 推荐系统之矩阵分解模型

并把 Λ P 展开来写,则 的表达式可以写成

原理篇 | 推荐系统之矩阵分解模型

其中,

原理篇 | 推荐系统之矩阵分解模型

可以看成是物品 和物品 之间的相似度,

原理篇 | 推荐系统之矩阵分解模型

可以看成是用户 对用户j的评分,这样就能像ItemCF那样去解释 N ( )中每一项对推荐物品 的贡献了。从 s ji  的计算表达式中,我们还可以看到,物品 和物品 之间的相似度 s ji  是跟用户 有关系的,也就是说,即使是相同的两个物品,在不同用户看来,它们的相似度是不一样的,这跟ItemCF的固定相似度有着本质上的区别,MF的相似度看起来更合理一些。

6.小结

(1)根据用户行为数据的特点,矩阵分解又分为显式矩阵分解和隐式矩阵分解两种;

(2)在显式MF算法中,用户向量和物品向量的内积拟合的是用户对物品的实际评分,并且只拟合有评分的项;

(3)在隐式MF算法中,用户向量和物品向量的内积拟合的是用户对物品的偏好(0或1),拟合的强度由置信度控制,置信度又由行为的强度决定;

(4)在隐式MF中,需要使用一些数学技巧降低计算复杂度,才能满足线上实时计算的性能要求;

(5)对于有行为数据,但不在训练集里的用户,可以使用增量MF算法计算出他的用户向量,进而为他做推荐;

(6)MF算法也能像ItemCF一样,能给出推荐的理由,具有良好的可解释性。

参考文献

[1] 项亮. 推荐系统实践. 北京: 人民邮电出版社. 2012.

[2] Sarwar B M, Karypis G, Konstan J A, et al. Item-based collaborative filtering recommendation algorithms. WWW. 2001, 1: 285-295.

[3] Linden G, Smith B, York J. Amazon. com recommendations: Item-to-item collaborative filtering. IEEE Internet computing. 2003 (1): 76-80.

[4] Koren Y, Bell R, Volinsky C. Matrix factorization techniques for recommender systems. Computer. 2009 (8): 30-37.

[5] Koren Y. Factorization meets the neighborhood: a multifaceted collaborative filtering model. SIGKDD. 2008: 426-434.

[6] Hu Y, Koren Y, Volinsky C. Collaborative filtering for implicit feedback datasets. ICDM. 2008: 263-272.

[7] Mnih A, Salakhutdinov R R. Probabilistic matrix factorization. NIPS. 2008: 1257-1264.

[8] Koren Y. Collaborative filtering with temporal dynamics. SIGKDD. 2009: 447-456.

[9] Pilászy I, Zibriczky D, Tikk D. Fast als-based matrix factorization for explicit and implicit feedback datasets. RecSys. 2010: 71-78.

[10] Johnson C C. Logistic matrix factorization for implicit feedback data. NIPS, 2014, 27.

[11] He X, Zhang H, Kan M Y, et al. Fast matrix factorization for online recommendation with implicit feedback. SIGIR. 2016: 549-558.

[12] Hofmann T. Probabilistic latent semantic analysis. UAI. 1999: 289-296.

[13] Blei D M, Ng A Y, Jordan M I. Latent dirichlet allocation. JMLR. 2003, 3(Jan): 993-1022.

[14] Zhang S, Yao L, Sun A, et al. Deep learning based recommender system: A survey and new perspectives. ACM Computing Surveys (CSUR). 2019, 52(1): 5.

[15] Mikolov, Tomas & Chen, Kai & Corrado, G.s & Dean, Jeffrey. Efficient Estimation of Word Representations in Vector Space. Proceedings of Workshop at ICLR. 2013.

[16] Mikolov T, Sutskever I, Chen K, et al. Distributed representations of words and phrases and their compositionality. NIPS. 2013: 3111-3119.

[17] Pennington J, Socher R, Manning C. Glove: Global vectors for word representation. EMNLP. 2014: 1532-1543.

[18] Covington P, Adams J, Sargin E. Deep neural networks for youtube recommendations. RecSys. 2016: 191-198.

[19] Chen T, Guestrin C. Xgboost: A scalable tree boosting system. SIGKDD. 2016: 785-794.

[20] Ke G, Meng Q, Finley T, et al. Lightgbm: A highly efficient gradient boosting decision tree. NIPS. 2017: 3146-3154.

更多精彩阅读:

原理篇 | 推荐系统之矩阵分解模型

科普篇 | 推荐系统之矩阵分解模型

原理篇 | 推荐系统之矩阵分解模型


以上所述就是小编给大家介绍的《原理篇 | 推荐系统之矩阵分解模型》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

疯狂的独角兽

疯狂的独角兽

丹·莱昂斯 / 王天任 / 海南出版社 / 2017-10 / 42

★商业与文学的有机结合,真实与虚幻间嬉笑怒骂,幽默风趣、引人入胜、发人深省的商业小说。 ★《纽约时报》《华尔街日报》《旧金山纪事报》Amazon畅销书,《财富》《纽约邮报》《新闻周刊》《华盛顿邮报》、畅销书《硅谷钢铁侠》作者阿什利·万斯、畅销书《一网打尽》作者布拉德·斯通联袂推荐。 ★作者丹·莱昂斯集小说家、记者、编剧为一身——HBO经典热门剧、豆瓣高分美剧《硅谷》作者;畅销书《乔布斯......一起来看看 《疯狂的独角兽》 这本书的介绍吧!

SHA 加密
SHA 加密

SHA 加密工具

XML 在线格式化
XML 在线格式化

在线 XML 格式化压缩工具

RGB HSV 转换
RGB HSV 转换

RGB HSV 互转工具