近些年来,随着互联网的迅速发展,用户在各种在线平台上接收到海量的信息,信息爆炸成为一个关键性问题。在此背景下,推荐系统逐步渗透到人们工作生活的各个场景,已成为不可或缺的一环。它不仅可以帮助用户快速获得想要的信息和服务,还可以提高资源利用效率,从而给企业带来更多效益。因此,个性化推荐算法不仅获得了工业界广泛的关注,也是科研领域的研究热点之一。
在个性化推荐的研究中,受限于平台与效率等因素,研究者大多无法将算法部署到在线系统上进行评价,因此离线评价成为推荐领域研究的主要方式。然而个性化推荐涉及到的场景复杂,可获得的数据信息多种多样,用户行为多为隐式反馈且存在许多噪声,这使得推荐系统离线评价的实验设定复杂多变,存在大量易被忽视却十分重要的细节。比如在训练采样负例时,既可以仅从用户没有交互过的商品中采样,也可以将验证测试集的商品视作未知交互加入采样池。同样,从训练到测试在很多其他环节也涉及这样的实现细节(如数据集处理、已知负样本的使用、Top-N排序候选集范围等)。这些实验细节通常不会在学术论文中被显式提及,却潜在影响了模型效果的对比,还决定着实验的科学性,甚至会导致相反或错误的分析结论。
本文从数据集处理、模型训练、验证与测试、效果评价等多个角度,系统地讨论与反思了推荐系统实验中的细节设定。对于每个环节,我们枚举了若干常见设定,并在真实数据集上验证了其中某些设定的实际影响。实验结果表明一些细节确实会导致关于模型优劣的不同结论。最终我们形成了关于推荐系统实验细节的指导性总结,包括可选、建议、必须的三类设定,希望帮助推荐算法研究者规避实现细节上的陷阱,更科学合理地设计实验。
http://jcs.iie.ac.cn/xxaqxb/ch/reader/create_pdf.aspx?file_no=20210504&flag=1&year_id=2021&quarter_id=5