最新基于强化学习的推荐系统综述

2021-09-23 15:47:28 浏览数 (1)

来自 | 专知

链接 | mp.weixin.qq.com/s/yOcWMmqddQPyEa2oROCzxQ

编辑 | 机器学习与推荐算法


祝老师们教师节节日快乐~

摘要

鉴于深度强化学习(DRL)在推荐系统研究中的出现,以及近年来取得的丰硕成果,本研究旨在对深度强化学习在推荐系统中的最新发展趋势提供一个及时而全面的概述。我们从在推荐系统中应用DRL的动机开始。然后,我们给出了当前基于DRL的推荐系统的分类,并对现有的方法进行了总结。我们讨论新出现的话题和未决的问题,并提供我们推进该领域的观点。本综述为来自学术界和工业界的读者提供了入门材料,并确定了进一步研究的显著机会。

链接:https://arxiv.org/abs/2109.03540

更多其他方向共38篇推荐系统综述,欢迎访问https://github.com/hongleizhang/RSPapers#surveys

引言

近年来,推荐技术有了长足的发展,从传统的协同过滤、基于内容的推荐、矩阵分解等推荐技术[62],到基于深度学习的推荐技术。特别是深度学习在解决复杂任务和处理复杂数据方面具有很强的优势,因为深度学习能够捕捉非线性的用户-项目关系,能够处理图像、文本等各种类型的数据源。因此,它在推荐系统中得到了越来越多的应用。由于分布的变化,基于深度学习的推荐系统在捕获兴趣动态方面存在局限性[17,115],即训练阶段基于现有的数据集,这可能不能反映真实的用户喜好,而用户的喜好变化很快。而深度强化学习(deep reinforcement learning, DRL)的目标是将深度学习和强化学习的力量结合起来,训练出一种能够从环境提供的交互轨迹中学习的agent。由于DRL中的agent可以主动从用户的实时反馈中学习,从而推断出用户的动态偏好,因此DRL特别适合于从交互中学习,如人-机器人协作; 它还推动了一系列互动应用的显著进步,从视频游戏、Alpha Go到自动驾驶[3]。鉴于DRL对推荐系统的重要性和最近的进展,我们旨在在本次综述中及时总结和评论基于DRL的推荐系统。

最近的一项基于强化学习的推荐系统[2]综述了推荐系统中的强化学习,但没有对日益增长的深度强化学习领域进行复杂的研究。我们综述重点在于系统全面地概述了基于DRL的推荐系统中的现有方法,并讨论了新出现的主题、未决问题和未来的方向。这项综述介绍了研究人员,实践者和教育工作者到这个主题,并促进了对该领域的关键技术的理解。

这项综述的主要贡献包括:

  • 我们提供关于推荐系统中深度强化学习的最新综合综述,具有最先进的技术和指向核心参考文献的指针。据我们所知,这是基于深度强化学习的推荐系统的第一个全面综述。
  • 我们给出了推荐系统中深度强化学习的文献分类。在概述分类和文献综述的同时,我们讨论了其优缺点,并对未来的研究方向提出了建议。
  • 我们阐明了基于DRL的推荐系统的新兴主题和开放问题。我们还指出了未来发展方向,这对推进基于DRL的推荐系统至关重要。

本综述的其余部分组织如下: 第2节概述了推荐系统、DRL及其集成。第3节提供了一个分类和分类机制的文献综述。第4节回顾了出现的话题,第5节指出了未解决的问题。最后,第6节为这一领域的进一步发展提供了一些有前景的未来方向。

深度学习和强化学习的结合推动了推荐系统的突破。基于DRL的RS由三个构建模块组成: 环境构建、状态表示和推荐策略学习。环境建设是基于使用者的一组历史行为来构建环境。状态表示由包含某些用户信息(包括历史行为、人口统计数据等)的环境提供。推荐策略学习是理解和预测用户未来行为的关键组成部分。基于DL的RS接收用户反馈(如评级或点击),以反映用户的兴趣并更新推荐人,而基于DRL的RS接收环境提供的奖励,以更新策略。环境提供的奖励是一个包含几个因素的预定义功能。基于DL的RS和基于drl的RS映射的详细过程如图3所示。

基于深度学习的推荐策略与基于DRL的推荐策略的区别:基于深度学习的推荐策略只能在训练阶段更新推荐策略。当用户的兴趣发生显著变化时,它们通常需要重新训练,这是计算效率低下的。基于DRL的RS将随着收到新的奖励而更新推荐策略。

未来挑战

在本节中,我们提供了一些基于DRL的推荐系统的潜在未来方向,得益于DRL研究的最新进展,我们相信这些主题可以推动基于DRL的推荐系统的进展。

因果与反事实推理

因果性是因果之间的一般关系。此外,在诸如计算式广告、搜索引擎和推荐系统[7]等许多应用中,推断因果效应是一个基本问题。近年来,一些研究者将强化学习与学习因果关系联系起来,以提高解决序列决策问题的效果。此外,强化学习框架中的学习主体面临着集成大量异构数据的复杂环境。从我们的观点来看,因果性可以通过引入因果的方向性来改善推荐结果。用户以前的选择会影响后续的操作。这可以被视为产生推荐系统动态的干预数据。通过将RL中的策略视为干预,我们可以检测RL中未被观察到的混杂因素,并选择预期奖励的策略,以更好地估计因果效应[82]。一些研究改进了以因果知识作为边信息的RL模型。另一种工作是使用因果推理方法来实现无偏的奖励预测[34]。

离线DRL和元DRL

推荐系统通常需要处理多个场景,如联合推荐和广告,离线DRL和元DRL为同时实现多个场景提供了一个很好的方向。离线DRL是一种新的DRL范式,它可以与现有的方法(如自我监督学习和迁移学习)相结合,向现实环境中移动。

结论

在这个综述中,我们提供了一个全面的概述深度强化学习在推荐系统中的使用。我们介绍了现有研究的分类方案,并按类别进行讨论。我们还提供了这些现有的新兴主题的概述,并指出了一些有前景的方向。我们希望这一综述能够对基于DRL的RS的关键概念提供系统的理解,并为未来的研究提供有价值的见解。

推荐阅读

KDD2019 | 强化学习优化推荐系统长期收益

强化学习推荐系统的模型结构与特点总结

RecNN | 基于强化学习的新闻推荐系统框架

基于深度强化学习的推荐算法论文集锦

0 人点赞