eBay 开发新的推荐模型,从数据中挖掘商机

2023-03-29 12:14:10 浏览数 (1)

作者 | Claudio Masolo

译者 | 明知山

策划 | 丁晓昀

eBay 基于自然语言处理(NLP)技术,特别是 BERT 模型开发了一个新的推荐模型。这个被称为“Ranker”的新模型使用词袋之间的距离得分作为特征,从语义角度分析商品标题信息。与之前的模型相比,Ranker 帮助 eBay 将原生应用(Android 和 iOS)和 Web 平台上的购买、点击和广告指标分别提升了 3.76%、2.74% 和 4.06%。

eBay Promoted Listing Similar Reccomendation Model(PLSIM)由三个阶段组成。其中获取 Promoted Listing Similar,也就是所谓的“召回集”,是最为相关的。应用使用离线历史数据训练过的 Ranker,根据购买的可能性对召回集进行排序,通过合并卖家广告率对列表进行重新排序。这个模型的特征包括:推荐商品历史数据、推荐商品与种子商品的相似性、产品类别、国家和用户个性化特征。使用梯度提升树对模型进行连续训练,根据相对购买概率对商品进行排序。在相似度检测中加入基于深度学习的特征显著提升了性能。

之前的推荐排名模型使用 Term Frequency-Inverse Document Frequency(TF-IDF)和 Jaccard相似度来评估产品标题。这种基于节点标记的方法存在最基本的局限性,并且它不会考虑句子的上下文和同义词。相反,基于深度学习的 BERT 在语言理解方面表现出色。由于 eBay 语料库不同于书籍和维基百科,eBay 工程师引入了 eBERT,一种 BERT 变体,使用 eBay 商品标题数据进行了预训练。它使用维基百科的 2.5 亿个句子和 eBay 的 30 亿个多语言标题进行了训练。在离线评估中,这个 eBERT 模型在 eBay 的一组标记任务上的表现显著优于开箱即用的 BERT 模型,F1 得分为 88.9。

eBERT 架构对于高吞吐量推断来说太重了,可能无法及时推送推荐结果。为了解决这个问题,eBay 开发了另一个模型 microBERT,它是 BERT 的另一个轻量级版本,并针对 CPU 推理进行了优化。microBERT 将 eBERT 作为训练阶段的老师,使用了知识蒸馏过程。通过这种方式,microBERT 保留了相当于 eBERT 95% 到 98% 的推理质量,而时间减少了 300%。

最后,microBERT 使用了叫作 InfoNCE 的对比损失函数进行微调。商品标题被编码成词袋向量,模型的训练目标为增加已知彼此相关的这些向量(表示标题的词袋)之间主题距离的余弦相似度,同时降低迷你批次中所有其他商品标题对的余弦相似度。

这种新的排名模型在购买排名(售出商品的平均排名)方面有 3.5% 的改进,但其复杂性导致难以进行实时的推荐。这就是为什么要通过日批处理作业生成标题词袋,并存储在 NuKV(eBay 的云原生键值存储)中,将商品标题作为键,词袋作为值。通过这种方法,eBay 能够满足其在延迟方面的要求。

原文链接

https://www.infoq.com/news/2023/01/ebay-recommendations-odel/

相关阅读:

构建生产可用的推荐系统需要注意哪些问题?(https://www.infoq.cn/article/gxIEsqB7HZmhjEG7qjGH )

京东电商推荐系统的应用实践|InfoQ 公开课 (https://www.infoq.cn/video/bxRbfmTSRolVeV6oyc9u )

推荐系统的未来发展 (https://www.infoq.cn/article/3eRgwJ2zgciEvGu73XGs )

声明:本文为 InfoQ 翻译,未经许可,禁止转载

点击底部阅读原文访问 InfoQ 官网,获取更多精彩内容!

今日好文推荐

“干净”的代码,贼差的性能

一场向应用交付标准的“冲锋”

没有 NGINX 和 OpenResty 的未来:Cloudflare 工程师正花费大量时间用 Rust 重构现有功能

开源意味着不问责,我们准备好应对比 Log4Shell 更大的安全危机了吗?|Log4j 一周年特别报道

0 人点赞