个性化推荐算法总结[通俗易懂]

2022-08-15 21:14:35 浏览数 (1)

大家好,又见面了,我是你们的朋友全栈君。

读书笔记 |《推荐系统实践》- 个性化推荐系统总结

对于推荐系统,本文总结内容,如下图所示:

一、什么是推荐系统

1. 为什么需要推荐系统

为了解决互联网时代下的信息超载问题。

2. 搜索引擎与推荐系统

  • 分类目录,是将著名网站分门别类,从而方便用户根据类别查找公司。
  • 搜索引擎,用户通过输入关键字,查找自己需要的信息。
  • 推荐系统,和搜索引擎一样,是一种帮助用户快速发展有用信息的工具。通过分析用户的历史行为,给用户的兴趣建模,从而主动给用户推荐能够满足他们兴趣和需求的信息。

并且,推荐系统能够很好的发掘物品的长尾,挑战传统的2/8原则(80%的销售额来自20%的热门品牌)。

从技术角度来看,搜索引擎和推荐系统的区别在于:

1)搜索引擎,注重搜索结果之间的关系和排序; 2)推荐系统,需要研究用户的兴趣模型,利用社交网络的信息进行个性化的计算;

3)搜索引擎,由用户主导,需要输入关键词,自行选择结果。如果结果不满意,需要修改关键词,再次搜索; 4)推荐系统,由系统主导,根据用户的浏览顺序,引导用户发现自己感兴趣的信息;

3. 推荐系统的定义

推荐系统通过发掘用户的行为,找到用户的个性化需求,从而将长尾物品准确推荐给需要它的用户,帮助用户找到他们感兴趣但很难发现的物品。

高质量的推荐系统会使用户对系统产生依赖,因此,推荐系统不仅能为用户提供个性化服务,还能与用户建立长期稳定的关系,提高用户忠诚度,防止用户流失。

二、推荐系统评测

如何判定什么是好的推荐系统?这是评测需要解决的首要问题。

一般推荐系统的参与方有3个:

  • 用户
  • 物品提供商
  • 推荐系统提供网站

因此,评测一个推荐系统时,需要考虑3方的利益,一个好的推荐系统是能够令三方共赢的系统。

推荐系统评测,总结图如下:

推荐系统评测.png

1. 实验方法

获得评测指标的实验方法,通常分3种:

  • 离线实验(offline experiment)
  • 用户调查(user study)
  • 在线实验(online experiment)

我们分别介绍3种实验方法的优缺点。

1)离线实验

离线实验的方法的步骤如下: a)通过日志系统获得用户行为数据,并按照一定格式生成一个标准的数据集; b)将数据集按照一定的规则分成训练集和测试集; c)在训练集上训练用户兴趣模型,在测试集上进行预测; d)通过事先定义的离线指标,评测算法在测试集上的预测结果。

从以上步骤看出,离线实验的都是在数据集上完成的。意味着,它不需要一个实际的系统作为支撑,只需要有一个从日志中提取的数据集即可。

离线实验的优点是:

  • 不需要有对实际系统的控制权;
  • 不需要用户参与实践;
  • 速度快,可以测试大量算法;

缺点是:

  • 数据集的稀疏性限制了适用范围,例如一个数据集中没有包含某用户的历史行为,则无法评价对该用户的推荐结果;
  • 评价结果的客观性,无法得到用户主观性的评价;
  • 难以找到离线评价指标和在线真实反馈(如 点击率、转化率、点击深度、购买客单价、购买商 品类别等)之间的关联关系;

2)用户调查

用户调查需要一些真实的用户,让他们在需要测试的推荐系统上完成一些任务。在他们完成任务时,需要观察和记录用户的行为,并让他们回答一些问题。

最后,我们通过分析他们的行为和答案,了解测试系统的性能。

用户调查的优点是:

  • 可以获得用户主观感受的指标,出错后容易弥补;

缺点是:

  • 招募测试用户代价较大;
  • 无法组织大规模的测试用户,统计意义不足;

3)在线实验

在完成离线实验和用户调查之后,可以将系统上线做AB测试,将它和旧算法进行比较。

在线实验最常用的评测算法是【A/B测试】,它通过一定的规则将用户随机分成几组,对不同组的用户采用不同的算法,然后通过统计不同组的评测指标,比较不同算法的好坏。

它的核心思想是: a) 多个方案并行测试; b) 每个方案只有一个变量不同; c) 以某种规则优胜劣汰。

其中第2点暗示了A/B 测试的应用范围:A/B测试必须是单变量。 对于推荐系统的评价中,唯一变量就是–推荐算法。

有个很棒的网站,http://www.abtests.com,里面有很多通过实际AB测试提高网站用户满意度的例子。

AB测试的优点是:

  • 可以公平获得不同算法实际在线时的性能指标,包括商业上关注的指标;

缺点是:

  • 周期较长,必须进行长期的实验才能得到可靠的结果;

大型网站做AB测试,可能会因为不同团队同时进行各种测试对结果造成干扰,所以切分流量是AB测试中的关键。

不同的层以及控制这些层的团队,需要从一个统一的地方获得自己AB测试的流量,而不同层之间的流量应该是正交的。

AB测试系统.png

4)总结

一般来说,一个新的推荐算法最终上线,需要完成上述的3个实验。

  • 首先,通过离线实验证明它在很多离线指标上优于现有的算法;
  • 其次,通过用户调查确定用户满意度不低于现有的算法;
  • 最后,通过在线AB测试确定它在我们关心的指标上优于现有的算法;

2. 评测指标

评测指标用于评测推荐系统的性能,有些可以定量计算,有些只能定性描述。

1)用户满意度

用户满意度是评测推荐系统的重要指标,无法离线计算,只能通过用户调查或者在线实验获得。

调查问卷,需要考虑到用户各方面的感受,用户才能针对问题给出准确的回答。

在线系统中,用户满意度通过统计用户行为得到。比如用户如果购买了推荐的商品,就表示他们在一定程度上满意,可以用购买率度量用户满意度。

一般情况,我们可以用用户点击率、停留时间、转化率等指标度量用户的满意度。

2)预测准确度

预测准确度,度量的是推荐系统预测用户行为的能力。 是推荐系统最重要的离线评测指标。

大部分的关于推荐系统评测指标的研究,都是针对预测准确度的。因为该指标可以通过离线实验计算,方便了学术界的研究人员。

由于离线的推荐算法有不同的研究方向,准确度指标也不同,根据研究方向,可分为:预测评分准确度和TopN推荐。

a)预测评分准确度

预测评分的准确度,衡量的是算法预测的评分与用户的实际评分的贴近程度。 这针对于一些需要用户给物品评分的网站。

预测评分的准确度指标,一般通过以下指标计算:

  • 平均绝对误差(MAE)

MAE.png MAE因其计算简单、通俗易懂得到了广泛的应用。但MAE指标也有一定的局限性,因为对MAE指标贡献比较大的往往是那种很难预测准确的低分商品。 所以即便推荐系统A的MAE值低于系统B,很可能只是由于系统A更擅长预测这部分低分商品的评分,即系统A比系统B能更好的区分用户非常讨厌和一般讨厌的商品,显然这样区分的意义不大。

  • 均方根误差(RMSE)

RMSE.png Netflix认为RMSE加大了对预测不准的用户物品评分的惩罚(平方项的惩罚),因而对系统的评测更加苛刻。 研究表明,如果评分系统是基于整数建立的(即用户给的评分都是整数),那么对预测结果取整数会降低MAE的误差。

b)TopN推荐

网站提供推荐服务时,一般是给用户一个个性化的推荐列表,这种推荐叫做TopN推荐。

TopN推荐的预测准确率,一般通过2个指标度量:

  • 准确率(precision)
  • 召回率(recall)

R(u)是根据用户在训练集上的行为给用户做出的推荐列表,T(u)是用户在测试集上的行为列表。

TopN推荐更符合实际的应用需求,比如预测用户是否会看一部电影,比预测用户看了电影之后会给它什么评分更重要。

3)覆盖率

覆盖率(coverage)是描述一个推荐系统对物品长尾的发掘能力。 最简单的定义是,推荐系统推荐出来的物品占总物品的比例。

假设系统的用户集合为U,推荐系统给每个用户推荐一个长度为N的物品列表R(u),覆盖率公式为:

覆盖率是内容提供者关心的指标,覆盖率为100%的推荐系统可以将每个物品都推荐给至少一个用户。

除了推荐物品的占比,还可以通过研究物品在推荐列表中出现的次数分布,更好的描述推荐系统的挖掘长尾的能力。

如果分布比较平,说明推荐系统的覆盖率很高;如果分布陡峭,说明分布系统的覆盖率较低。

信息论和经济学中有两个著名指标,可以定义覆盖率:

  • 信息熵

p(i)是物品i的流行度除以所有物品流行度之和。

  • 基尼系数(Gini Index)

p(ij)是按照物品流行度p()从小到大排序的物品列表中第j个物品。

  • 评测马太效应

马太效应,是指强者越强,弱者越弱的效应。推荐系统的初衷是希望消除马太效应,使得各物品都能被展示给对它们感兴趣的人群。 但是,很多研究表明,现在的主流推荐算法(协同过滤)是具有马太效应的。评测推荐系统是否具有马太效应可以使用基尼系数。 如,G1是从初始用户行为中计算出的物品流行度的基尼系数,G2是从推荐列表中计算出的物品流行度的基尼系数,那么如果G1<G2,就说明推荐算法具有马太效应。

4)多样性

为了满足用户广泛的兴趣,推荐列表需要能够覆盖用户不同兴趣的领域,即需要具有多样性。

多样性描述了推荐列表中物品两两之间的不相似性。假设s(i,j)在[0,1]区间定义了物品i和j之间的相似度,那么用户u的推荐列表R(u)的多样性定义如下:

推荐系统整体多样性可以定义为所有用户推荐列表多样性的平均值:

5)新颖性

新颖性也是影响用户体验的重要指标之一。它指的是向用户推荐非热门非流行物品的能力。

评测新颖度最简单的方法,是利用推荐结果的平均流行度,因为越不热门的物品,越可能让用户觉得新颖。

此计算比较粗糙,需要配合用户调查准确统计新颖度。

6)惊喜度

推荐结果和用户的历史兴趣不相似,但却让用户满意,这样就是惊喜度很高。

目前惊喜度还没有公认的指标定义方式,最近几年研究的人很多,深入研究可以参考一些论文。

7)信任度

如果用户信任推荐系统,就会增加用户和推荐系统的交互。

提高信任度的方式有两种:

  • 增加系统透明度 提供推荐解释,让用户了解推荐系统的运行机制。
  • 利用社交网络,通过好友信息给用户做推荐 通过好友进行推荐解释

度量信任度的方式,只能通过问卷调查。

8)实时性

推荐系统的实时性,包括两方面:

  • 实时更新推荐列表满足用户新的行为变化;
  • 将新加入系统的物品推荐给用户;

9)健壮性

任何能带来利益的算法系统都会被攻击,最典型的案例就是搜索引擎的作弊与反作弊斗争。

健壮性(robust,鲁棒性)衡量了推荐系统抗击作弊的能力。

2011年的推荐系统大会专门有一个推荐系统健壮性的教程,作者总结了很多作弊方法,最著名的是行为注入攻击(profile injection attack)。 就是注册很多账号,用这些账号同时购买A和自己的商品。此方法针对亚马逊的一种推荐方法,“购买商品A的用户也经常购买的其他商品”。

评测算法的健壮性,主要利用模拟攻击:

a)给定一个数据集和算法,用算法给数据集中的用户生成推荐列表; b)用常用的攻击方法向数据集中注入噪声数据; c)利用算法在有噪声的数据集上再次生成推荐列表; d)通过比较攻击前后推荐列表的相似度评测算法的健壮性。

提高系统健壮性的方法:

  • 选择健壮性高的算法;
  • 选择代价较高的用户行为,如购买行为比浏览行为代价高;
  • 在使用数据前,进行攻击检测,从而对数据进行清理。

10)商业目标

设计推荐系统时,需要考虑最终的商业目标。不同网站具有不同的商业目标,它与网站的盈利模式息息相关。

总结:

作者认为,对于可以离线优化的指标,在给定覆盖率、多样性、新颖性等限制条件下,应尽量优化预测准确度。

3. 评测维度

增加评测维度的目的,就是知道一个算法在什么情况下性能最好。

一般评测维度分3种:

  • 用户维度 主要包括用户的人口统计学信息、活跃度以及是不是新用户等;
  • 物品维度 包括物品的属性信息、流行度、平均分以及是不是新加入的物品等;
  • 时间维度 包括季节,是工作日还是周末,白天还是晚上等;

如果推荐系统的评测报告中,包含了不同维度下的系统评测指标,就能帮我们全面了解系统性能。

三、推荐算法通用模型

1. 推荐算法通用模型

推荐系统有3个重要的模块:

  • 用户建模模块
  • 推荐对象建模模块
  • 推荐算法模块

通用的推荐系统模型流程如图,技术一点的描述过程如下: a)推荐系统通过用户行为,建立用户模型; b)通过物品的信息,建立推荐对象模型; c)通过用户兴趣匹配物品的特征信息,再经过推荐算法计算筛选,找到用户可能感兴趣的推荐对象,然后推荐给用户。

  • 用户建模模块 建立用户模型之前,需要考虑下面几个问题: (1)模型的输入数据有哪些,如何获取模型的输入数据。 (2)如何考虑用户的兴趣及需求的变化。 (3)建模的对象是谁。 (4)如何建模。 (5)模型的输出是什么。

获取用户信息就是解决模型输入数据的问题,输入数据主要有以下几种: (1)用户属性:人口统计学信息; (2)用户手动输入的信息:包括用户在搜索引擎中输入的关键词,用户反馈的信息,对推荐对象的喜好程度等; (3)用户的浏览行为和浏览内容:包括浏览次数、频率、停留时间等,浏览页面时的操作(收藏、保存、复制等)等。服务器端保存的日志也能较好地记录用户的浏览行为和内容。 (4)推荐对象的属性特征:不同的推荐对象,用户建模的输入数据也不同。网页等推荐对象通常考虑对象的内容和用户之间的相似性,而产品等推荐对象通常考虑用户对产品的评价。 为提高推荐质量,推荐对象的相关的属性也要考虑进去,比如除网页内容以外,还要考虑网页的发布人、时间等。 产品类的对象还要考虑产品的品牌、价格、出售时间等。

获取模型输入数据的方式有显式获取、隐式获取和启发式获取三种方式。

用户模型的建模方法主要有遗传算法、基于机器学习的 方法,例如 TF-IDF、自动聚类、贝叶斯分类器、决策树归纳和神经网络方法等。

  • 推荐对象建模

考虑以下几个问题: (1)提取推荐对象的什么特征,如何提取,提取的特征用于什么目的。 (2)对象的特征描述和用户文件描述之间有关联。 (3)提取到的每个对象特征对推荐结果会有什么影响。 (4)对象的特征描述文件能否自动更新。

2. 算法模块

目前主要的推荐算法,如下图所示。

推荐算法是整个推荐系统中最核心的部分,在很大程度上决定了推荐系统类型和性能的优劣。

四、推荐算法详述

1)基于内容的推荐

原理是基于用户感兴趣的物品A,找到和A内容信息相近的物品B。

利用用户和物品本身的内容特征,如用户的地理位置、性别、年龄,电影物品的导演、演员、发布时间等。 比如你喜欢看《怪奇物语I》,系统会给你推荐《怪奇物语II》。

所以提取推荐对象的特征,是内容推荐算法的关键。但是对于多媒体内容,如视频、音乐,很难找到它们之间的特性关联性。

基于内容的推荐的优点如下: (1) 简单、有效,推荐结果直观,容易理解,不需要领域知识。 (2) 不需要用户的历史数据,如对对象的评价等。 (3) 没有关于新推荐对象出现的冷启动问题。 (4) 没有稀疏问题。 (5) 算法成熟,如数据挖掘、聚类分析等。

基于内容的推荐的缺点如下: (1) 受到了推荐对象特征提取能力的限制。 比如图像、视频,没有有效的特征提取方法。即便是文本资源,特征提取也只能反应一部分内容,难以提取内容质量,会影响用户满意度。

(2) 很难出现新的推荐结果。 根据用户兴趣的喜好进行推荐,很难出现惊喜。对于时间敏感的内容,如新闻,推荐内容基本相同,体验度较差。

(3)存在新用户出现时的冷启动问题。 当新用户出现时, 系统较难获得该用户的兴趣偏好,无法进行有效推荐。

(4) 推荐对象内容分类方法需要的数据量较大。

2)协同过滤算法

仅仅基于用户行为数据设计的推荐算法,称为协同过滤算法。此方法主要根据用户对物品的历史行为,寻找用户或物品的近邻集合,以此计算用户对物品的偏好。

主要的算法分3种,最广泛应用的是基于领域的方法:

a) 基于领域的模型算法

主要包含两种算法:

i) 基于用户的协同过滤算法(UserCF) 这种算法给用户推荐和他兴趣相似的其他用户喜欢的物品。

  • 算法步骤: (1) 找到和目标用户兴趣相似的用户集合; (2) 找到这个集合中的用户喜欢的,且目标用户没有听说过的物品,推荐给目标用户。

算法的关键是计算两个用户的兴趣相似度。协同过滤计算用户兴趣相似度是利用用户行为的相似度。

UserCF

  • 计算用户相似度的方法有3种:
    • 余弦相似性
    • 相关相似性(皮尔森系数相关)
    • 修正的余弦相似性

计算用户兴趣相似度时,要避免热门物品自带马太效应的影响。换句话说,两个用户对冷门物品采取过同样行为,更能说明他们的兴趣相似。

  • 缺点:
    • 用户数目越大,计算用户兴趣相似度越复杂,时间、空间复杂度的增长和用户数的增长近似于平方关系。
    • 解释性不强

ii) 基于物品的协同过滤算法(ItemCF) 这种算法给用户推荐和他之前喜欢的物品相似的物品。

该算法是目前业界应用最多的算法,如亚马逊、Netflix、YouTube,都是以该算法为基础。

  • ItemCF 与 基于内容的推荐算法的区别
    • 基于内容的推荐算法,计算的是物品内容属性之间的相似度。如,电影的导演是不是同一个人;
    • ItemCF是通过用户的行为计算物品之间的相似度。如,物品A、B具有很大相似度,是因为喜欢物品A的用户也大都喜欢物品B。
  • 算法步骤: (1) 根据用户的历史行为,计算物品之间的相似度; (2) 根据物品的相似度和用户的历史行为给用户生成推荐列表。

两个物品产生相似度,是因为它们共同被很多用户喜欢,也就是说,每个用户都可以通过它们的历史兴趣列表给物品“贡献”相似度。

ItemCF

  • 用户活跃度对物品相似度的影响 IUF(Inverse User Frequence),用户活跃度对数的倒数的参数。 论文提出的观点是,活跃用户对物品相似度的贡献应该小于不活跃的用户。用IUF修正物品相似度的计算。
  • 物品相似度的归一化 研究表明,将ItemCF的相似度矩阵按最大值归一,可以提高推荐的准确率。
  • UserCF 与 ItemCF 的优缺点

b) 隐语义模型算法

LFM(latent factor model)隐语义模型是最近几年推荐系统领域最热门的话题,它的核心思想是通过隐含特征联系用户兴趣和物品。

i)隐语义模型解决了什么问题

比如,用户A的兴趣列表里,有关于侦探小说、科普图书和计算机技术图书。用户B的兴趣列表集中在数学和机器学习方面。

如何给用户A和B推荐图书?

除了UserCF与ItemCF,还可以对书和物品的兴趣进行分类。对于某个用户,首先得到他的兴趣分类,然后从分类中挑选他可能喜欢的物品。

  • 基于兴趣分类的方法,大概需要解决的问题:
    • 如何给物品进行分类?
    • 如何确定用户对哪类物品感兴趣,以及感兴趣程度?
    • 对于一个给定的分类,选择哪些属于这个类的物品推荐给用户,以及如何确定这些物品在一个类中的权重?
  • 人工编辑分类存在的问题:
    • 编辑的意见不能代表各种用户的意见。
    • 编辑很难控制分类的粒度。
    • 编辑很难给一个物品多个分类。
    • 编辑很难给出多维度的分类。
    • 编辑很难决定一个物品在某一个分类的权重。
  • 隐语义分析技术解决了上述5个问题:
    • 用户的行为代表了用户对物品分类的看法。比如,如果两个物品被很多用户同时喜欢,这个两个物品很可能属于同一类。
    • 隐语义技术允许我们指定最终的分类数目,分类数越多,分类粒度越细。
    • 隐语义技术可以计算出物品属于每个类的权重,因为每个物品不是硬性地被分到一个类目中。
    • 隐语义技术给出的每个分类都不是一个维度,它根据用户的共同兴趣计算得出。
    • 隐语义技术可以通过统计用户行为决定物品在每个类中的权重,如果喜欢某个类的用户都会喜欢某个物品,那么这个物品在这个类中的权重就可能较高。

隐语义技术有很多著名的模型和方法,其中耳熟能详的名词有pLSA、LDA、隐含类别模型、隐含主题模型、矩阵分解。这些技术和方法在本质上是相同的,都可以用于个性化推荐系统。

ii)LFM算法详解

LFM公式

推荐系统的用户行为分为显性反馈和隐性反馈,LFM在显性反馈数据(评分数据)上解决评分预测问题达到了很好的精度。

对于隐性反馈数据,这种数据集的特点是,只有正样本(用户喜欢什么物品),没有负样本(用户对什么物品不感兴趣)。

在隐性反馈数据集上应用LFM解决TopN推荐,第一个关键问题是如何给每个用户生成负样本。

  • 对于这个问题,Rong Pan在文章中做了很多探讨,对比了如下几种方法:
    • 1)对于一个用户,用他所有没有过行为的物品作为负样本。
    • 2)对于一个用户,从他没有过行为的物品中均匀采样出一些物品作为负样本。
    • 3)对于一个用户,从他没有过行为的物品中采样出一些物品作为负样本,但采样时,保证每个用户的正负样本数目相当。
    • 4)对于一个用户,从他没有过行为的物品中采样出一些物品作为负样本,但采样时,偏重采样不热门的物品。

对于1),它的明显缺点是负样本太多,正负样本数目相差悬殊,因而计算复杂度很高,最终结果的精度也很差。另外三种方法的效果,作者表示,3)> 2)> 4)。

  • 对负样本的采样还应该遵循以下原则:
    • 对每个用户,要保证负样本的平衡(数目相似)
    • 对每个用户采样负样本时,要选取那些很热门,而用户却没有行为的物品。

通过离线实验对比LFM在TopN推荐中的性能,在LFM中,有4个重要参数:

  • 隐特征的个数F;
  • 学习速率alpha;
  • 正则化参数lambda;
  • 负样本/正样本比例ratio; 实验表明,ratio参数对LFM的性能影响最大。

iii)基于LMF的实际系统的例子

雅虎的研究人员公布过一个使用LFM进行雅虎首页个性化设计的方案。

LFM的缺点是,很难实现实时的推荐。 经典的LFM模型每次训练时,需要扫描所有用户的行为记录,这样才能计算出用户隐类向量和物品隐类向量。所以一般每天只训练一次。

雅虎的解决方案是:

  • 利用新闻链接的内容属性(关键词、类别等)得到链接的内容特征向量;
  • 实时收集用户对链接的行为,并用这些数据得到链接的隐特征向量;
  • 利用公式预测用户是否会单击链接。

iiii)LFM和基于领域的方法区别

总结如下图:

c) 基于图的模型

用户行为很容易用二分图表示,因此很多图的算法都可以用到推荐系统中。也可以把基于领域的模型看做是基于图的模型的简单形式。

i)用户行为数据的二分图表示

基于图的模型(graph-based model)是推荐系统中的重要内容,其基本思想是将用户行为数据表示为一系列的二元组。

每一个二元组(u,i)代表用户u对物品 i 产生过行为,这样便可以将这个数据集表示为一个二分图。

下图是一个简单的用户物品二分图模型,其中圆形节点代表用户,方形节点代表物品,圆形节点和方形节点之间的边代表用户对物品的行为。比如图中用户节点A和物品节点a、b、d相连,说明用户A对物品a、b、d产生过行为。

ii)基于图的推荐算法

基于用户行为二分图,给用户u推荐物品,可以转化为计算用户顶点u和与所有物品顶点之间的相关性,然后取与用户没有直接边相连的物品,按照相关性的高低生成推荐列表。

其实,这是一个图上的排名问题,最著名的就是Google的pageRank算法。

  • 度量图中两个顶点之间相关性,一般取决于3个因素:
    • 两个顶点之间的路径数;
    • 两个顶点之间的路径长度;
    • 两个顶点之间的路径经过的顶点;
  • 相关性高的两个顶点,一般具有以下特征:
    • 两个顶点之间有很多路径相连;
    • 链接两个顶点之间的路径长度都比较短;
    • 链接两个顶点之间的路径不会经过出度比较大的顶点。

iii)PageRank算法简介

PageRank是Larry Page 和 Sergey Brin设计的,用来衡量特定网页相对于搜索引擎中其他网页的重要性的算法,其计算结果作为Google搜索结果中网页排名的重要指标。

网页之间通过超链接相互连接,互联网上不计其数的网页就构成了一张超大的图。

PageRank假设用户从所有网页中随机选择一个网页进行浏览,然后通过超链接在网页直接不断跳转。到达每个网页后,用户有两种选择:到此结束或者继续选择一个链接浏览。

算法令用户继续浏览的概率为d,用户以相等的概率在当前页面的所有超链接中随机选择一个继续浏览。

这是一个随机游走的过程。 当经过很多次这样的游走之后,每个网页被访问用户访问到的概率就会收敛到一个稳定值。这个概率就是网页的重要性指标,被用于网页排名。算法迭代关系式如下所示:

上式中PR(i)是网页i的访问概率(也就是重要度),d是用户继续访问网页的概率,N是网页总数。in(i)表示指向网页i的网页集合,out(j)表示网页j指向的网页集合。

iiii)PersonalRank算法简介

对于推荐系统,我们需要计算的是物品节点相对于某一个用户节点u的相关性。

Standford的Haveliwala于2002年在他《Topic-sensitive pagerank》一文中提出了PersonalRank算法,该算法能够为用户个性化的对所有物品进行排序。它的迭代公式如下:

我们发现PersonalRank跟PageRank的区别只是用ri替换了1/N,也就是说从不同点开始的概率不同。

我们重新描述一下算法的过程:

假设要给用户u进行个性化推荐,可以从用户u对应的节点Vu开始在用户物品二分图上进行随机游走。

游走到任何一个节点时,首先按照概率α决定是继续游走,还是停止这次游走并从Vu节点开始重新游走。如果决定继续游走,那么就从当前节点指向的节点中按照均匀分布随机选择一个节点作为游走下次经过的节点。

这样,经过很多次随机游走后,每个物品节点被访问到的概率会收敛到一个数。最终的推荐列表中物品的权重就是物品节点的访问概率。

  • 缺点 PersonalRank每次都需要在全图迭代,所以时间复杂度非常高。 解决办法是,
    • 减少迭代次数,在收敛前停止。会影响精度,但影响不大。
    • 从矩阵论出发,重新设计算法。

3)基于关联规则的推荐

主要用于购物车分析。

(以下内容摘自网络)

关联规则是反映一个事物与其他事物之间的相互依存性和关联性,常用于实体商店或在线电商的推荐系统:通过对顾客的购买记录数据库进行关联规则挖掘,最终目的是发现顾客群体的购买习惯的内在共性。

例如购买产品A的同时也连带购买产品B的概率,根据挖掘结果,调整货架的布局陈列、设计促销组合方案,实现销量的提升,最经典的应用案例莫过于<啤酒和尿布>。

关联规则分析中的关键概念包括:支持度(Support)、置信度(Confidence)与提升度(Lift)。首先,我们简单温故下这3个关键指标~

1、支持度 (Support):支持度是两件商品(A∩B)在总销售笔数(N)中出现的概率,即A与B同时被购买的概率。类似于中学学的交集,需要原始同时满足条件。

公式:

例子说明:

比如某超市2016年有100w笔销售,顾客购买可乐又购买薯片有20w笔,顾客购买可乐又购买面包有10w笔,那可乐和薯片的关联规则的支持度是20%,可乐和面包的支持度是10%。

2、置信度 (Confidence):置信度是购买A后再购买B的条件概率。简单来说就是交集部分C在A中比例,如果比例大说明购买A的客户很大期望会购买B商品。

公式:

例子说明:

某超市2016年可乐购买次数40w笔,购买可乐又购买了薯片是30w笔,顾客购买可乐又购买面包有10w笔,则购买可乐又会购买薯片的置信度是75%,购买可乐又购买面包的置信度是25%,这说明买可乐也会买薯片的关联性比面包强,营销上可以做一些组合策略销售。

3、提升度 (Lift):提升度表示先购买A对购买B的概率的提升作用,用来判断规则是否有实际价值,即使用规则后商品在购物车中出现的次数是否高于商品单独出现在购物车中的频率。如果大于1说明规则有效,小于1则无效。

公式:

例子说明:

可乐和薯片的关联规则的支持度是20%,购买可乐的支持度是3%,购买薯片的支持度是5%,则提升度是1.33>1, A-B规则对于商品B有提升效果。

4)基于知识推荐

基于知识的推荐(Knowledge-based Recommendation),主要应用于知识型的产品中,主要解决的问题是,为你量身定制升级打怪的进阶路线图。

比如你想学习钢琴,如果你是刚入门的小白,那你最好从简单的谱子学起。但这样带来一个问题,是因为你的历史行为都在初级范围之内,根据兴趣偏好,推荐给你的信息也都在初级范围。无法满足你的升级需求。

这个时候就需要基于知识的推荐。推荐系统知道你现在所处的知识级别(用户知识),也知道学习钢琴所有的级别(产品知识),然后根据你现在的情况为你推荐适合你进阶的信息。

以上为个人理解,百度百科的解释为:

使用用户知识和产品知识, 通过推理什么产品能满足用户需求来产生推荐。这种推荐系统不依赖于用户评分等关于用户偏好的历史数据, 故其不存在冷启动方面的问题。基于知识的推荐系统响应用户的即时需求, 当用户偏好发生变化时不需要任何训练。

举例: 针对海量习题带来的信息过载导致学习针对性不强、效率不高等问题,提出了基于知识点层次图的个性化习题推荐算法(A Personalized Exercises Recommendation Algorithm based on Knowledge Hierarchical Graph,ReKHG)。

首先,借鉴课程知识点体系结构的特点,构建了表征知识点层次关系的权重图,该权重图有效反映知识点间的层次关系。

然后,根据学生对知识点的掌握情况,在知识点层次图的基础上提出了一种个性化习题推荐算法。该算法通过更新学生-知识点失分率矩阵,获取学生掌握薄弱的知识点,以此实现习题推荐。

ps:以上举例来自于某论文,没有用于实际案例中。关于知识推荐,没有找到太多实际案例,国外的论文论述的比较多一些。

5)混合推荐

每个算法都不是完美的,因此实际应用中,可以混合使用各种推荐算法,各取所长。

五、推荐算法数据来源

1. 利用用户行为信息

用户行为数据一般存于日志中。 用户行为可以分为:显性反馈行为和隐性反馈行为。 互联网上的很多数据分布满足一种称为Power Law的分布,称为长尾分布。

2. 利用用户标签数据

推荐系统联系用户和物品的几种途径

推荐系统的目的是联系用户的兴趣和物品,这种联系需要依赖不同的媒介。目前流行的有3种方式:物品、用户、特征。

前两种我们都很熟悉,特征有不同的表现形式,可以是物品的属性集合,可以是隐语义向量,这里我们用标签表示。

  • 标签分两类
    • 让作者或者专家给物品打标签
    • 让普通用户给物品打标签,即UGC标签应用,既描述了用户的兴趣又将表达了物品的语义。

以豆瓣为例,打标签作为一种用户重要的行为,蕴含了丰富的用户兴趣信息。

  • 标签推荐系统算法
    • 统计每个用户最常用的标签
    • 对于每个标签,统计被打过这个标签次数最多的物品
    • 对于一个用户,首先找到他常用的标签,然后找到具有这些标签的最热门物品推荐给这个用户
  • 算法改进:
    • TF-IDF,降低热门标签的权重,使推荐结果更准确
    • 数据稀疏性:对于新用户或者新物品来说,其标签数量可能过少,需要对标签进行扩展,即对每个标签找到和它相似的标签,也就是计算标签相似度。(拓展方法–话题模型)
    • 标签清理:清理掉同义词、无义词,方便做出推荐解释
  • 给用户推荐标签
    • 推荐的好处
      • 方便用户输入标签
      • 提高标签质量
    • 推荐方法
      • 推荐系统中最热门的标签(PopularTags)
      • 推荐物品最热门的标签(Item PopularTags)
      • 推荐用户经常使用的标签(User PopularTags)
      • 前面两种融合(Hybrid PopularTags)
    • 冷启动物品的推荐方法
      • 从物品的内容数据中抽取关键词作为标签
      • 根据仅有的标签做拓展

3. 利用上下文信息

用户所处的上下文,包括用户访问推荐系统的时间、地点、心情等,有助于提高推荐系统的性能。

比如,用户夏天喜欢过的T恤,冬天再推荐就不合适了。 用户在中关村,打开美食推荐,如果给的结果是国贸是不合适了。

1) 时间上下文信息

  • 时间对用户兴趣的影响:
    • 用户兴趣是变化的
    • 物品也是有生命周期的
    • 季节效应
  • 推荐系统的实时性 用户兴趣是不断变化的,其变化体现在用户不断增加的新行为中。一个实时的推荐系统需要能够实时响应用户新的行为,让推荐列表不断变化,从而满足用户不断变化的兴趣。 实现推荐系统的实时性除了对用户行为的存取有实时性要求,还要求推荐算法本身具有实时性,而推荐算法本身的实时性意味着:
    • 实时推荐系统不能每天都给所有用户离线计算推荐结果,然后在线展示昨天计算出来的结果。所以,要求在每个用户访问推荐系统时,都根据用户这个时间点前的行为实时计算推荐列表
    • 推荐算法需要平衡考虑用户的近期行为和长期行为,即要让推荐列表反应出用户近期行为所体现的兴趣变化,又不能让推荐列表完全受用户近期行为的影响,要保证推荐列表对用户兴趣预测的延续性。
  • 推荐算法的时间多样性 推荐系统每天推荐结果的变化程度被定义为推荐系统的时间多样性。时间多样性高的推荐系统中用户会经常看到不同的推荐结果。 提高推荐结果的时间多样性需要分两步解决:
    • 首先,需要保证推荐系统能够在用户有了新的行为后及时调整推荐结果,使推荐结果满足用户最近的兴趣;
    • 其次,需要保证推荐系统在用户没有新的行为时也能经常变化一下结果,具有一定的时间多样性

    如果用户没有行为,推荐思路:

    • 在生成推荐结果时加入一定的随机性。比如从推荐列表前20个结果中随机挑选10个结果展示给用户,或者按照推荐物品的权重采样10个结果展示给用户。
    • 记录用户每天看到的推荐结果,然后在每天给用户进行推荐时,对他前几天看到过很多次的推荐结果进行适当地降权。
    • 每天给用户使用不同的推荐算法。可以设计很多推荐算法,比如协同过滤算法、内容过滤算法等,然后在每天用户访问推荐系统时随机挑选一种算法给他进行推荐。

协同过滤算法可以利用时间信息提高预测的准确度。

  • 时间上下文相关的ItemCF算法
    • 物品相似度 用户在相隔很短的时间内喜欢的物品具有更高相似度。
    • 在线推荐 用户近期的行为比用户很久之前的行为,更能体现用户现在的兴趣。
  • 时间上下文相关的UserCF算法
    • 用户兴趣相似度 如果两个用户【同时】喜欢相同的物品,则他们有更大的兴趣相似度。
    • 相似兴趣用户的最近行为 给用户推荐和他兴趣相似的用户最近喜欢的物品。

2)地点上下文信息

  • 用户兴趣和地点相关的两种特征:
    • 兴趣本地化,不同地方的用户兴趣存在着很大的差别,不同国家和地区用户的兴趣存在着一定的差异性。
    • 活动本地化,一个用户往往在附近的地区活动。因此,在基于位置的推荐中我们需要考虑推荐地点和用户当前地点的距离,不能给用户推荐太远的地方。

4. 利用社交网络数据

  • 获取社交网络数据的途径
    • 电子邮件
    • 用户注册信息
    • 用户位置数据
    • 论坛和讨论组
    • 即时聊天工具
    • 社交网站
      • Facebook中的绝大多数用户联系基于社交图谱:由于人们之间的亲属关系、工作关系而形成;
      • Twitter中的绝大多数用户联系基于兴趣图谱:通过人们之间的共同兴趣和信念形成;
  • 社交网络数据的分类
    • 双向确认的社交网络数据,以Facebook和人人网为代表,用户之间形成好友关系需要通过双方的确认;
    • 单向关注的社交网络数据,以Twitter和新浪微博为代表,用户A可以关注用户B,而不用得到用户B的允许;
    • 基于社区的社交网络数据,用户之间并没有明确的关系,但是这种数据包含了用户属于不同社区的数据。比如豆瓣小组,属于同一个小组可能代表了用户兴趣的相似性;
  • 社会化推荐的优点
    • 好友推荐可以增加推荐的信任度
    • 社交网络可以解决冷启动问题

六、冷启动问题

1)冷启动主要分3类:

  • 用户冷启动 一个新用户,没有任何历史行为数据,怎么做推荐。
  • 物品冷启动 一个新上线的物品,没有用户对它产生过行为,怎么推荐给感兴趣的用户。
  • 系统冷启动 一个新开发的网站,没有用户数据,怎么做个性化推荐。

2)解决方案:

  • 提供非个性化推荐,如热门排行。等有了数据之后再推荐。
  • 利用用户注册信息,做粗粒度的个性化。
  • 利用用户的社交网络账号,导入用户的好友,推荐好友喜欢的物品。
  • 用户初次登录时,对一些物品进行反馈,根据这些信息做个性化。
  • 对于新上线的物品,利用内容信息,推荐给喜欢类似物品的用户。
  • 系统冷启动,可以引入外部资源,如专家知识,建立起物品的相关度。

3)冷启动,启动用户兴趣的物品需要具有以下特点:

  • 比较热门
  • 具有代表性和区分性
  • 启动物品集合需要有多样性

4)选择启动物品集合的系统

如何设计一个选择启动物品集合的系统?Nadav Golbandi在论文中提出用一个决策树解决。

首先,给定一群用户,用这群用户对物品评分的方差度量这群用户兴趣的一致程度。如果方差很小,说明这一群用户的兴趣不太一致,也就是物品具有比较大的区分度,反之则说明这群用户的兴趣比较一致。

再根据用户的评分方差计算物品的区分度。

也就是说,对于物品i,将用户分为3类–喜欢物品i的用户,不喜欢物品i的用户和不知道物品i的用户。如果这3类用户集合内的用户对其他的物品兴趣很不一致,说明物品i具有较高的区分度。

算法首先从所有用户中找到具有最高区分度的物品i,然后将用户分成3类。然后在每类用户中再找到最具区分度的物品,然后将每一类用户又各自分为3类,也就是将总用户分为9类,然后继续这样下去,最终可以通过对一系列物品的看法将用户进行分类。

在冷启动时,从根节点开始询问用户对该节点物品的看法,然后根据用户的选择将用户放到不同的分枝,直到进入最后的叶子节点,此时对用户的兴趣有了比较清楚的了解,从而可以开始对用户进行比较准确地个性化推荐。

5)利用物品的内容信息

就是基于内容的推荐,很适合解决物品冷启动问题。

物品冷启动对诸如新闻网站等时效性很强的网站的推荐非常重要,因为那些网站中时时刻刻都有新加入的物品,而且每个物品必须能够在第一时间展现给用户,否则经过一段时间后,物品的价值就大大降低了。

一般来说,物品的内容可以通过向量空间模型表示,该模型会将物品表示成一个关键词向量。

如果物品的内容是诸如导演、演员等实体,可以直接将实体作为关键词。 如果内容是文本,需要引入自然语言的技术抽取关键词。如何建立文章、话题和关键词的关系是话题模型研究的重点,代表性的话题模型有LDA。

LDA有3种元素,文档、话题、词语。详细内容可参考相关论文。

向量空间模型的优点是简单,缺点是丢失了一些信息,比如关键词之间的关系信息。

七、推荐系统实例

推荐系统和其他系统之间的关系

3种联系用户和物品的推荐系统

3)推荐系统架构 推荐系统需要由多个推荐引擎组成,每个推荐引擎负责一类特性和一种任务,推荐系统的任务是将推荐引擎的结果按照一定权重或者优先级合并,排序然后返回。如下图:

推荐系统架构图

  • 优点:
    • 方便增加或删除引擎,控制不同引擎对推荐结果的影响。
    • 可以实现推荐引擎级别的用户反馈。对不同用户给出不同引擎组合权重。

4)推荐引擎架构

  • 推荐引擎架构主要包括三部分:
    • 图中A部分负责从数据库或缓存中拿到用户行为数据,通过分析不同行为,生成当前用户的特征向量,如果使用非行为特征,就不需要行为提取和分析模块了,该模块的输出就是用户特征向量。
    • 图中B部分负责将用户的特征向量通过特征-物品相关矩阵转化为初始推荐物品列表。
    • 图中C部分负责对初始的推荐列表进行过滤、排名等处理,从而生成该引擎的最终推荐结果。

推荐引擎架构图

  • 生成用户特性向量
    • 用户行为的种类
    • 用户行为产生的时间
    • 用户行为的次数
    • 物品的热门程度
  • 过滤模块过滤掉以下物品
    • 用户已经产生过行为的物品
    • 候选物品以外的物品(不符合用户筛选条件的物品)
    • 某些质量很差的物品

以上,就是所有内容的总结。内容主要来自于《推荐系统实践》,以及相关论文、博客。

《推荐系统实践》中提到的papaer总结: 附上Reference 中的干货 (Paper,Blog等资料的链接)(推荐系统实践)书评 参考论文: http://t.cn/RjXktmC 推荐系统评价指标综述 – 百度学术 基于随机游走的personalrank算法实现推荐_qingqingpiaoguo的专栏-CSDN博客_personalrank算法 利用关联规则实现推荐算法? – 知乎

在这个信息爆炸的时代,每个人都是内容的消费者,也轻而易举地可以成为内容的创造者。在海量的信息中,用户找到所需、所想、所爱的优质内容变得异常困难,个性化推荐也因此应运而生。

个性化推荐是在大数据分析和人工智能技术的基础上,通过用户行为分析,进行深度计算,从而给用户提供高质量的个性化内容,起到降低信息过载、发掘长尾、提高转化率的作用,最终更好更快地满足用户需求。

神策智能推荐是神策数据打造的一款基于用户行为分析的全流程智能推荐系统。该系统主要分为两个阶段:召回阶段和排序阶段。因此,在详细讲述召回的方法前,我们先来看看召回阶段的作用和目的。

一、召回阶段的作用和目的

召回阶段可以理解为根据用户的历史行为数据,为用户在海量的信息中粗选一批待推荐的内容,挑选出一个小的候选集,相当于粗排序。排序阶段再在此基础上进行更精准的计算,做到给每一个内容进行精确打分,相当于精排序。

如下图,用户画像、内容分析、机器学习平台是支持召回和排序的三个独立组件,另外,通过点击、观看、收藏、评价等用户行为数据作为数据输入的主要来源。

举个例子,神策的某个资讯类客户,每天的内容量级为十万以上,在召回阶段根据用户的历史行为数据分析出其兴趣和偏好,再在海量的政治、历史、体育、娱乐等内容中,挑选出一个小的候选集,如用户主要对历史和体育感兴趣,候选集中就主要是历史和体育的内容,娱乐、政治等其他内容就会被过滤掉,排序阶段会以此为基础进行更精准地计算,通过机器学习预估用户的喜欢程度对使用不同的召回方法获得的候选集的内容进行更精细化地打分,使其变得有序,经过这两个阶段后,最终为用户精挑细选出用户最感兴趣的高质量内容。

综上所述,个性化推荐系统是一个流程:海量 Item——召回(粗排)——候选集合——排序(精排)——排序列表——规则(多样化推荐)——推荐结果。

事实上,作为信息过滤的第一环,召回对于个性化推荐系统极其重要,神策智能推荐在保障数据源的准确性基础上,使用了多种召回方法加强个性化推荐的推荐精准性。下面将为你详解:

二、基于深度用户行为分析的召回

基于深度用户行为分析的召回,能更全面且精细化地解读用户真实需求,并为其推荐。市场上熟知的基于用户行为分析的召回主要通过以下两种思路:

1.基于内容的协同过滤

基于内容的协同过滤,简而言之是根据用户喜欢的内容推荐与之相似的内容。比如某个用户喜欢 A 内容,算法就会为用户推荐 A1、A2 等与 A 相似的内容,而不是推荐 Z9 等相关性小的内容。

举个例子,百度视频会根据用户正在观看或者历史偏好的视频,进行个性化的推荐。如在百度视频首页搜索《知否知否应是绿肥红瘦》就会出现根据主演赵丽颖推荐的相关电视剧。

2.基于用户的协同过滤

基于用户的协同过滤,简而言之,推荐相似用户喜欢的内容。比如,A 用户和 B 用户喜欢的内容一致,这种方式就会向 A 用户推荐 B 用户喜欢但是 A 用户没有看的内容。

举个例子,某咨询类 App 有娱乐、奇趣、健康、美食等内容分类,对于喜欢娱乐新闻的用户可以将所有同样喜欢娱乐内容的用户最近最爱看的一些资讯放在有娱乐新闻偏好的用户的热门流中。

神策智能推荐在具备多种协同过滤推荐机制的基础上,采用基于行为的深度学习召回模型,再根据用户行为数据训练模型,加强了推荐系统推荐的智能性和准确性。该深度学习召回模型是借鉴谷歌的个性化推荐思路(如下图),并汲取用户行为分析实践经验结合企业的最新实践需求进行了个性化的优化迭代。

图片来源:谷歌发布的《Deep Neural Networks for YouTube Recommendations 》论文

相比基于矩阵分解的协同过滤方式,深度学习召回模型有如下优势:

第一,更全面的行为表达。在模型中结合点击、收藏、搜索等多种行为,能更全面地表示用户行为偏好。

第二,可添加画像特征,可加入性别、地域等用户画像相关的特征。如果你有额外的一些标签或发生的信息,这个模型是可以兼容的,它可以把所有信息糅杂在同一模型里面去做,而在协同过滤模型里面是完全无法引入的。

第三,考虑用户的行为顺序。比如用户通常的行为顺序是,先买一个手机,然后再去买一个手机壳;买了一个汽车后可能会买个汽车坐垫。

第四,组合复杂特征。神经网络可以进行更复杂的特征组合,挖掘更深层次的关联关系。

三、基于用户画像的召回

1.利用已有的关注关系

关注关系就是用户显性化的喜爱偏好。用户的每次浏览、每次点击、每次填写、每次搜索都隐藏了你的用户偏好。如下图,当用户的站内搜索、浏览页面、点击标签、点击按钮等行为的数据都能抓到并进行分析,就能做到给用户的内容更逼近其心中所想和心中所爱。

再比如,淘宝也会根据用户收藏和历史的搜索行为进行推荐,如下图淘宝的收藏中有运动裤,下面的猜你喜欢就会推荐相关的运动裤。

2.基于标签构建用户画像

不同性别、年龄、职业、地区的用户对内容的兴趣偏好有所不同,即使同一性别、年龄、职业的偏好也有很大差异,所谓千人千面,每个用户都有其特征和偏好。因此,很多企业都有自身的标签平台,如纵横小说会根据用户行为数据结合内容标签,构建用户画像标签,通过这种方式召回用户感兴趣的内容。

四、保障推荐的有效冷启动和推荐多样性的方法

推荐系统的冷启动场景主要分为三类:

用户冷启动:即如何给新用户做个性化推荐,事实上,第一次展现给用户的 item 极其重要,决定了用户的第一印象;

内容冷启动:即如何将新的内容推荐给潜在对它感兴趣的用户;

系统冷启动:即如何在一个新开发的产品中(无用户、无用户行为,只有一些内容)设计个性化推荐,从而在产品刚发布就让用户体验到个性化推荐服务。

1.运用自然语言处理技术,解决内容冷启动问题

关于冷启动,神策智能推荐,会运用自然语言处理技术对新的内容进行语义分析,我们可以这样理解,市面上很多都是文本数据的一些“显式”使用方法,包括在前面介绍的标签也是,所谓显式,是指我们将可读可理解的文本本身作为了相关性计算、召回以及模型排序的特征。这样做的优势是能够清晰地看到起作用的是什么,但是其劣势是无法捕捉到隐藏在文本表面之下的深层次信息。例如,“衣服”和“上衣”指的是类似的东西,“厚外套”和“棉服”具有很强的相关性,类似这样的深层次信息,是显式的文本处理所无法捕捉的,因此我们需要一些更复杂的方法来捕捉,而自然语言处理技术就能捕捉到,运用从词下沉到主题的思路,挖掘更深层次的核心信息。

神策智能推荐运用自然语言处理技术——基于神经网络的文本语义分析模型(如下图),相比市面上通过打标签的方式推荐,可以做到更深层次的偏好挖掘推荐,举个例子,如果用户阅读了大量包含甄子丹、成龙、李小龙等关键词的文章,可以挖掘出用户对功夫类主题的内容偏好,并为其推荐。

2.运用 UCB 探索用户的潜在兴趣算法,保证推荐结果的多样性

在推荐的过程中,需要考虑给新 item 展示的机会,比如给一个喜欢历史分类资讯的用户推荐一些娱乐、政治等其他资讯,解决加强推荐多样性的问题。

大家所熟知的是通过随机分配一部分流量给新 item 曝光,得到一些反馈,然后模型才能对其有较好的建模能力,这是比较传统的冷启动套路。

神策智能推荐采用的是 upperconfidence bound(UCB) 策略: 假设有 K 个新 item 没有任何先验,每个 item 的回报也完全不知道。每个 item 的回报均值都有个置信区间,而随着试验次数增加,置信区间会变窄,对应的是最大置信边界向均值靠拢。如果每次投放时,我们选择置信区间上限最大的那个,则就是 UCB 策略。这个策略主要是通过以下两个原理达成更好地推荐:均值差不多时,优先给统计不那么充分的资讯多些曝光;均值有差异时,优先出效果好的。

五、根据多源数据召回,保障推荐的全面性和精准性

企业产生数据的方式多种多样,推荐系统的个性化精准推荐,离不开对业务和用户的精准把控,只有获取足够全面、颗粒度足够细的数据才能更精准的了解用户。神策智能推荐支持企业结合业务角度和时事热点等多方面,利用多种数据源的整合与综合分析,如支持将热门、编辑精选、最新、本地化内容等多类数据进行综合,吸取不同数据源的特点,并将这些内容放入到候选集里,为排序提供足够全面且详尽的内容。

比如,某个资讯类 APP 的编辑会在热门流中精选出部分内容,形成一个精选内容集,就是一个精选出来的数据源,可将其放入候选集中,再次推荐增加曝光。再比如,当出了某些热门事件,资讯类 APP 就可以通过编辑打标签、手动筛选或通过某个简单的程序抓取相关的内容,将其归为一类放入内容池,再经过一系列操作后进行推荐。

最后,我们整体上回顾一下前面介绍的召回方法(如下图)。

事实上,神策智能推荐是以数据为根基,4 种主要召回的方法为关键,保障召回的候选集的全面、准确、个性化,为后面的排序打下良好基础。这里引用神策数据架构师房东雨的一句话,“数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已”,这也是神策智能推荐如此强调数据根基的原因,因为如果你的数据根基没有做好,那所有的工作都是徒劳的。事实上,为企业建立良好的数据根基也是神策数据一直在做的事,如果你有需要或疑问都可以通过 4006509827 电话联系我们,会有专业的人员为您解答。

如何搭建一套个性化推荐系统?

个性化推荐系统,设计的巧妙就可以立竿见影地提升运营效率和用户转化率,尤其在内容分发、电商、社交等领域实践相当出彩(微博、各新闻门户、头条、京东、探探等都取得了不错的成绩),个性化推荐已经成为一个产品的基础建设。

本文从整体上介绍一个完整的推荐系统所需的模块(不深入到细枝末节),核心包括内容源、内容处理、用户挖掘、算法、推荐搜索引擎、ABtest系统。本文将逐一介绍推荐架构的各个模块。

个性化推荐系统架构图

一、大量级可推荐内容,即推荐的SKU

个性化推荐的本质是提升信息筛选的效率,如果信息量级小个性化意义不大(比如一个视频网站每天只能产生10条新闻,再怎么个性化也只是在这10条内循环,对用户来说没有差别),个性化推荐的SKU至少是千级或万级,而且理论上来说,优质内容越多、类别分布越广泛,个性化推荐效果越好。

这些内容可以是抓取的无版权内容、UGC、版权合作PGC等多种来源,由于来源不同,样式和质量可能千差万别,因此通常需要做内容抓取、清洗、转码等以保证样式统一,还可能需要用户管理体系、反垃圾等配合搭建内容生态。个性化推荐系统各家可能是相近的,推荐的内容不同就产生了不同的用户场景和产品壁垒。内容,本质是一种资源。

二、内容的标准化处理

第一步内容已备齐,接下来是把内容处理成机器和算法可理解的特征(比如分类、标签、产品库等)。具体怎么处理要看业务需求,需要的技术:如果是文章、新闻、微博等,就需要自然语言处理;如果是图片、视频,就会涉及到图像识别和处理;如果是歌曲、电影、商品等,机器直接理解内容来打标签难度比较大,最好能建立一套用户打标签的机制,或者通过人工填写或抓取的方式打标签。

但不管什么内容,首先都要建立一套自己的标签体系,这是定义标准的过程,比如要给电影打标签,先定义一下有多少种电影,通常标签体系会是一个树状或网状结构;其次可能都要收集大量训练样本,比如要实现给图片打标签,首先需要人工标注上万张图片,供机器学习,标注的样本还要不断更新,这里面涉及到大量重复繁琐的人力劳动。所以圈内人经常开玩笑说,“人工智能”重点其实是“人工”。

三、用户行为日志收集、传输、挖掘、存储

推荐的基础是数据,前两步挖掘了内容数据,第三步就是挖掘用户行为生成用户画像。

采集:通常采用前端埋点的方式,上报用户的点击、分享、收藏等等行为。日志采集是数据挖掘非常重要的环节,如果采集有缺失或错误(很可能的事),那么后续不管怎么做都没有效果,同时前端的改动也可能影响日志,如果不有效协同,会对后端有很大影响。

传输:用于用户兴趣的收集往往越快越好,这样用户的某个操作就能快速反馈到下一步推荐中,所以就需要日志的稳定传输和更新,但由于成本考虑,用户profile不是都能实时更新的,有的可能延时1小时,有的可能1天1更、一周1更,甚至更久。

挖掘:这一过程是将用户数据计算、挖掘处理成我们想要的特征(俗称“用户画像”,业内通常叫用户profile),用户挖掘通常要与算法结合,而不能凭空挖特征,没有算法应用再牛逼的用户画像也是没有价值的。

存储:用户的兴趣在一段时间内不会变化太大,因此可以用用户长期留下的行为来积累用户画像,并需要把这些profile存起来。如果用户量很大,那么需要的存储资源也是海量的,那就需要一个能对大量数据进行分布式存储的数据库,并且需要可靠和廉价,例如hdfs(Hadoop Distributed File System),如果想要实时计算用户兴趣,就需要可快速存取的数据库比如redis,所以购买服务器也是微博、今日头条等公司很大的开支。

当然用户的兴趣不是一成不变的,因此用户兴趣需要随时间“衰减”,设置合理的衰减系数,对用户profile也很重要。

除此之外,用户行为挖掘还有一个历史性难题——用户冷启动,这个话题我们需要单起一篇文章探讨。

四、排序算法

前三步有了内容和用户的数据,第四步可以用算法对两者做match了。个性化推荐本质是在做Top N ranking,通常包括“召回”和“排序”两个模块。举个例子,如果我有10万条信息,但是用户每天可能只能看10条,那么推荐哪10条给用户呢?我可以把这10万条从1-10万排个序,这样用户不管想看多少条,我只要从我排的10000个序里从前往后挑就可以了,这个过程就是“排序”;但这种排法在实时索引中计算量太大,可能会带来较高延时,那么我们先用某种相对简单的方法从这10万中选相对靠谱的1000,再对这1000排序,10万选10000的过程就是“召回”。

算法方面门道很多,可以参看公众号之前推送的文章,详细介绍目前了推荐系统常用的、最有效的算法。此外,不管什么算法都需要使用内容推荐之后的“动态指标”(比如ctr),但没推荐之前我们如何获得这个动态指标呢?这里涉及到内容的冷启动问题,也会之后单独讨论。

五、推荐搜索引擎

怎么还有搜索引擎?是的,你没看错。实际上个性化推荐和搜索是非常相似的领域,两者都是信息筛选方式,也都是在做一种“相关性”rank,目标函数都是很接近的(点击率)。只不过搜索更注重用户当下搜索关键词的相关性,而推荐更注重内容与用户profile的相关性。用户每一次浏览都是一次实时请求,因此需要实时计算当下最符合用户兴趣的内容,这一步就是在线搜索引擎承担的。但由于性能要求,在线索引这步不宜做太耗时的计算,一般是排序算法计算了初始结果,在线引擎做算法调度和归一化排序,此外在线索引还会承担接收请求、输出数据、曝光点击排重等服务,通常还会承担业务和产品需求的二次排序(比如插入广告、打散同类型内容等)。

六、ABtest系统

ABtest系统虽不是个性化推荐系统的必需模块,但没有ABtest的推荐系统一定是个假的推荐系统!推荐系统的优化实际上就是一个y=f(x),y是目标函数,首先目标函数一定要十分明确,且是可量化的指标;f(x)是选用的算法、算法特征参数、算法调度等等组成的,其实业界通过有效的算法一直是那么几个,算法原理也就是那么几个,但如何结合自己的产品场景选择特征、参数,就成了个性化推荐精准度的关键因素。如果有ABtest系统,那么我们可以尝试带入多种参数、特征,ABtest实验得出最佳的y,这样推荐系统就可以不断迭代、优化。

当然,算法的优化不是改改参数这么简单,做推荐的人需要要对数据十分敏感,并能将复杂问题抽象到可量化的指标上,再结合ABtest实验快速迭代。我总结的算法优化的过程是:“数据分析发现问题、合理假设、设计实验、实现、数据分析、得出结论或新的假设”,不断循环反复。其中改改参数只是“实现”那一步,也是最简单的一步,而往往多数人只重视“实现”,却对分析和假设的过程重视程度太低,这样优化的效果是没有保障的,还有些产品、技术人员会陷入盲目ABtest的误区,漫无目的的尝试,经常做ABtest发现AB组数据没有任何差别,甚至产生了ABtest效率低的想法。这些分析思路便拉开了算法工程师之间的差距。

总结

有了这6部分,一个完整的个性化推荐系统就已经搭建起来了,整个体系里涉及到算法工程师、自然语言处理/图像处理工程师、服务端工程师/架构师、数据挖掘工程师、数据分析师、产品经理,还需要大量标注审核人员、内容运营,此外还会涉及到前端、客户端技术等的支持。因此想做一个好的个性化推荐系统耗费还是比较大的,但有时候我们并不需要一个系统,可能一些简单的规则就可以实现相对个性化、提升用户使用效率(比如把用户最近浏览过的商品放在前面),因此提升效率的思维和方法才是最重要的,这也是我们需要长期探讨的内容。

千人千面:打造个性化推荐系统

推荐系统是如何推荐的

1-利用用户行为数据

利用用户行为数据进行个性化推荐,其实在个性化推荐系统就已经诞生了,最典型的就是各类排行榜。尽管这些排行榜只是对数据的简单统计,但仍受到了用户的青睐。

举一个简单的例子,当前我们在电商网站中购物时,如果我们浏览了商品或者将商品加入了购物车,那么在下次打开时,这些商品或者替代品就可能出现在APP的首页。

对用户行为进行分析最典型的算法就是基于用户的协同过滤算法和基于物品的协同过滤算法。

2-利用用户标签数据

标签应用一般分为两种:一种是让作者或者专家给物品打标签;另一种是让普通用户给物品打标签。

打标签作为一种重要的用户行为,蕴含了很多用户兴趣信息,因此深入研究和利用用户打标签的行为可以很好地指导我们改进个性化推荐系统的推荐质量。同时,标签的表示形式非常简单,便于很多算法处理。

3-利用上下文信息

A-时间上下文

时间是一种重要的上下文信息,对用户兴趣有着深入而广泛的影响。一般认为,时间信息对用户兴趣的影响表现在以下几个方面:

1)用户兴趣是变化的

2)物品也是有生命周期的

3)季节效应

B-地点上下文

除了时间,地点作为一种重要的空间特征,也是一种重要的上下文信息。不同地区的用户兴趣有所不同,用户到了不同的地方,兴趣也会有所不同,逛街逛累了,希望寻找美食时,你可能会考虑几个因素,如距离、价位、口味、口碑等,而在这些因素中,最重要的因素可能就是距离,

4-利用社交网络数据

关于社交网络最让人耳熟能详的结论就是六度原理。六度原理讲的是社会中任意两个人都可以通过不超过6个人的路径相互认识,一般来说,熟人之间的推荐可以增加推荐的信任度,提高推荐效果,此外,社交网络可以解决冷启动问题当一个新用户通过社交账号登录网站时,我们可以从社交网站中获取用户的好友列表,然后给用户推荐好友在网站上喜欢的物品。

3四种推荐方式

1-热门推荐

就是热门排行榜的概念。这种推荐方式不仅仅在IT系统,在平常的生活中也是处处存在的。这应该是效果最好的一种推荐方式,毕竟热门推荐的物品都是位于曝光量比较高的位置的。

2-人工推荐

即通过人工干预推荐内容。相比于依赖热门和算法来进行推荐。一些热点时事等就需要人工加入推荐列表。另一方面,热点新闻带来的推荐效果也是很高的。

3-相关推荐

相关推荐有点类似于关联规则的个性化推荐,就是在你阅读一个内容的时候,会提示你阅读与此相关的内容。例如,我在商城上浏览或者购买了苹果手机,下次打开商城时可能会给我推荐苹果周边相关产品。

4-个性化推荐

基于用户的历史行为做出的内容推荐。也是本文主要讲述的内容。

4推荐算法

推荐系统中最经典的算法是基于领域的算法,基于邻域的算法分为两大类,一类是基于用户的协同过滤算法(简称UserCF),另一类是基于物品的协同过滤算法(简称ItemCF)。这里简单说下这两类算法。

  • 基于用户的协同过滤算法

基于用户的协同过滤(UserCF),通过用户对不同类型的商品的喜好度进行评分,然后根据每类商品的喜好度评分构建一个多维向量,使用余弦公式有来评测用户之间喜好度的相似性,基于此将其他相似用户非常喜欢而该用户还没有了解的产品进行推荐。这部分推荐本质上是给用户推荐其他相似用户喜欢的内容,一句话概括:基于用户的协同算法是向你推荐和你相似的用户也喜欢的商品。

用户A喜欢物品A、物品C,用户C喜欢物品A、物品C、物品D,而用户C与用户A具有相似的用户属性,则系统向用户A推荐物品D。

  • 基于物品的协同过滤算法

基于物品的协同过滤算法(ItemCF),也是目前应用最多的一种算法。基于用户的协同过滤算法虽然得到了应用,但有一些缺陷,一是随着用户数目越来越大,计算用户的相似性难度加大,二是基于用户的协同过滤算法很难对推荐结果做出解释。

基于物品的协同过滤算法给用户推荐那些和他们之前喜欢的物品相似的物品。比如,该算法会因为你购买过《数据挖掘导论》而给你推荐《机器学习》。不过,基于物品的协同过滤算法并不利用物品的内容属性计算物品之间的相似度,它主要通过分析用户的行为记录计算物品之间的相似度。

用户A喜欢物品A、物品C,用户C喜欢物品A,而物品A和物品C具有相似性,则此时向用户C推荐物品C。

5如何开始做推荐系统

  • 推荐系统工作原理

说起如何开始做推荐系统,先看一下推荐系统是如何跟其他系统交互的,见下图

一般来说,每个产品都有前端的APP/H5/PC,前端系统负责给用户展示网页并和用户交互。网站会通过日志系统将用户在前端上的各种各样的行为记录到用户行为日志中。日志可能存储在内存缓存里,也可能存储在数据库中,也可能存储在文件系统中。而推荐系统通过分析用户的行为日志,给用户生成推荐列表,最终展示到网站的界面上。

推荐系统联系用户和物品的方式主要有3种(如下图)

我们将上图用户联系物品抽象成一种:用户通过特征联系物品,就可以设计出一种基于特征的推荐系统。当用户到来之后,推荐系统需要为用户生成特征,然后对每个特征找到和特征相关的物品,从而最终生成用户的推荐列表。因而,推荐系统的核心任务就被拆解成两部分,一个是如何为给定用户生成特征,另一个是如何根据特征找到物品。

用户的特征可以总结为以下几类:

A-人口统计学特征,如用户的年龄,性别等用户在注册的时候提交的信息;

B-用户的行为特征,包括用户浏览过什么物品、收藏过什么物品、给什么物品打过什么样的分数等用户行为相关的特征。

C-用户的话题特征,可以根据用户的历史行为利用话题模型将A话题和B话题聚合成不同的话题,并且计算出每个用户对什么话题感兴趣。

如果要在一个系统中将以上特征都包括在内,系统将变得比较复杂,而且拓展性比较差,一旦以后新增新特征,改动难度大,因此,推荐系统需要由多个推荐引擎组成,每个推荐引擎负责一类特征和一种任务,而推荐系统的任务只是将推荐引擎的结果按照一定权重或者优先级合并、排序然后返回。

  • 推荐系统设计

推荐引擎使用一种或几种用户特征,按照一种推荐策略生成一种类型物品的推荐列表。系统架构如下所示:

A-基础数据模块:

该部分负责从数据库或者缓存中拿到用户行为数据,通过分析不同行为,生成当前用户的特征向量。不过如果是使用非行为特征,就不需要使用行为提取和分析模块了。该模块的输出是用户特征向量。

一般来说,用户的特征包括两种,一种是用户的注册信息中可以提取出来的,主要包括用户的人口统计学特征。另一种特征主要是从用户的行为中计算出来的。

一个特征向量由特征以及特征的权重组成,在利用用户行为计算特征向量时需要考虑以下因素:

1.用户行为的种类

2.用户行为产生的时间

3.用户行为的次数

4.物品的热门程度

B-推荐模块

负责将用户的特征向量通过特征-物品相关矩阵转化为初始推荐物品列表,在得到用户的特征向量后,我们可以根据离线的相关表得到初始的物品推荐列表。

C-排名模块和过滤模块:

负责对初始的推荐列表进行过滤、排名等处理,从而生成最终的推荐结果。

6推荐系统参考

1-淘宝的推荐系统

这张图应该是淘宝很久之前的一张图,这张图不仅讲了推荐系统的架构流程,也讲了跟这个平台有关系的人,是怎么介入的,我觉得提供的信息很值得参考。

2-京东的推荐系统

3-优酷的推荐系统

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/134473.html原文链接:https://javaforall.cn

0 人点赞