Slope One 算法是由 Daniel Lemire 教授在 2005 年提出的一个 Item-Based 的协同过滤推荐算法。
——文章概要
该篇文章主要介绍Slope One算法。Slope One 算法是由 Daniel Lemire 教授在 2005 年提出的一个 Item-Based 的协同过滤推荐算法。和其它类似算法相比, 它的最大优点在于算法很简单, 易于实现, 执行效率高, 同时推荐的准确性相对较高。
- 协同过滤算法理解和Python实现
- 基于标签的推荐算法
- 基于图的推荐算法
经典的ItemCF的问题
经典的基于物品推荐,相似度矩阵计算无法实时更新,整个过程都是离线计算的,而且还有另一个问题,相似度计算时没有考虑相似度的置信问题。例如,两个物品,他们都被同一个用户喜欢了,且只被这一个用户喜欢了,那么余弦相似度计算的结果是 1,这个 1 在最后汇总计算推荐分数时,对结果的影响却最大。
Slope One 算法针对这些问题有很好的改进。不过 Slope One 算法专门针对评分矩阵,不适用于行为矩阵。
Slope One算法过程
Slope One 算法是基于不同物品之间的评分差的线性算法,预测用户对物品评分的个性化算法。
Slope算法主要分为3步
1. 计算物品之间的评分差的均值,记为物品间的评分偏差 (两物品同时被评分)
( r_ui - r_uj ) 表示评分的差,这里需要注意的是j相对i的评分偏差是 r_ui - r_uj ,如果是i相对j的评分偏差则是 r_uj - r _ui,两 者是互为相反数的关系。
其中:
- r_ui :用户u对物品i的评分
- r_uj :用户u对物品j的评分
- N(i) :物品i评过分的用户
- N(j) :物品j评过分的用户
- N(i) 交 N(j) :表示同时对物品i 和物品j评过分的用户数。
2. 根据物品间的评分偏差和用户的历史评分,预测用户对未评分的物品的评分。
其中:
- N(u) :用户u评过分的物品
3. 将预测评分进行排序,取Top N对应的物品推荐给用户
实例说明
例如现在有一份评分数据,表示用户对电影的评分:
现在我们来预测预测每个用户对未评分电影的评分。
Step1: 计算物品之间的评分偏差,以U1为例:
同理可以计算出电影b,c,d,e与其他电影的评分偏差。
Step2: 计算用户对未评分物品的可能评分(为了方便计算,这里以U2为例)
由上表可知,用户U2 对电影a没有评分,这里计算用户U2对电影a的评分。
Step3: 评分排序
由于给定样例中,U2只对a没有评过分,所以这里不需要进行排序,正常的话,按分数进行倒排就行。
代码实现
这里采用Python实现,在实现过程中并没有考虑算法的复杂度问题。
加载数据
代码语言:javascript复制def loadData(self):
user_rate = {
"U1": {"a": 2, "b": 3, "c": 3, "d": 4},
"U2": {"b": 4, "c": 2, "d": 3, "e": 3},
"U3": {"a": 4, "b": 2, "c": 3, "e": 2},
"U4": {"a": 3, "c": 5, "d": 4, "e": 3}
}
item_rate = {
"a": {"U1": 2, "U3": 4, "U4": 3},
"b": {"U1": 3, "U2": 4, "U3": 2},
"c": {"U1": 3, "U2": 2, "U3": 3, "U4": 5},
"d": {"U1": 4, "U2": 3, "U4": 4},
"e": {"U2": 3, "U3": 2, "U4": 3}
}
return user_rate,item_rate
计算物品之间的评分偏差
代码语言:javascript复制def cal_item_avg_diff(self):
avgs_dict = {}
for item1 in self.item_rate.keys():
for item2 in self.item_rate.keys():
avg = 0.0
user_count = 0
if item1 != item2:
for user in self.user_rate.keys():
user_rate = self.user_rate[user]
if item1 in user_rate.keys() and item2 in user_rate.keys():
user_count = 1
avg = user_rate[item1] - user_rate[item2]
avg = avg / user_count
avgs_dict.setdefault(item1,{})
avgs_dict[item1][item2] = avg
return avgs_dict
计算预估评分
代码语言:javascript复制def item_both_rate_user(self, item1, item2):
count = 0
for user in self.user_rate.keys():
if item1 in self.user_rate[user].keys() and item2 in self.user_rate[user].keys():
count = 1
return count
def predict(self, user, item, avgs_dict):
total = 0.0 # 分子
count = 0 # 分母
for item1 in self.user_rate[user].keys():
num = self.item_both_rate_user(item, item1)
count = num
total = num * (self.user_rate[user][item1] - avgs_dict[item][item1])
return total/count
主函数调用
代码语言:javascript复制if __name__ == "__main__":
slope = SlopeOne()
avgs_dict = slope.cal_item_avg_diff()
result = slope.predict("U2", "a", avgs_dict)
print("U2 对 a的预测评分为: %s" % result)
打印结果为:
代码语言:javascript复制U2 对 a的预测评分为: 3.111111111111111
和上边我们计算的结果一致。
完整代码在:https://github.com/Thinkgamer/Machine-Learning-With-Python/tree/master/Recommend
应用场景
该算法适用于物品更新不频繁,数量相对较稳定并且物品数目明显小于用户数的场景。比较依赖用户的用户行为日志和物品偏好的相关内容。
其优点:
- 算法简单,易于实现,执行效率高;
- 可以发现用户潜在的兴趣爱好;
其缺点:
- 依赖用户行为,存在冷启动问题和稀疏性问题。