学术活动
基于嵌入表示的游戏推荐系统:可扩展性与解释性
报告题目: 基于嵌入表示的游戏推荐系统:可扩展性与解释性
报告人简介:
姓名:练建勋
个人简介: 练建勋博士,微软亚洲研究院主管研究员,2018年毕业于中国科学技术大学,师从微软亚洲研究院首席研究员、CCF会士谢幸教授。研究方向为用户建模和推荐系统,以第一作者和主要作者身份在国际顶级期刊和会议上发表多篇高质量CCF-A/B类论文,包括KDD,IJCAI,WWW,SIGIR,CIKM和WSDM等。研究成果谷歌学术引用量高达2000余次。同时,相关研究成果已成功应用于必应广告、Xbox游戏和微软新闻等多个实际推荐应用场景上,获得了显著的关键指标提升。此外,他也是微软推荐系统开源库Microsoft Recommender和推荐系统领域知名图书《推荐系统:前沿与实践》的主要贡献者之一。
照片
报告内容简介:
表征学习旨在从复杂的原始数据中自动提取出有效且精简的特征,以解决实际任务或支持下游机器学习模型的训练。在推荐系统中,表征学习有着广泛的应用。例如,基于表征学习的协同过滤模型利用用户-物品构成的二部图作为原始数据,学习用户和物品的嵌入表示,以进行推荐或分类任务。本次报告将结合Xbox游戏推荐的实际场景,介绍我们在WebConf 2023上发表的两项工作,它们分别针对深度表征学习应用中的两大挑战:可扩展性和可解释性。
首先,我们发现图神经网络(GNN)在学习大规模表征时仍存在许多不足,例如多跳信息传播导致的过度平滑和可扩展性问题;每个节点都会分配一个可学习的向量,这导致了模型整体参数量过高,不利于大规模训练等。为了解决这些问题,我们提出了一种新颖的GNN模型:xGCN。xGCN将节点ID嵌入向量表视为静态特征而非梯度训练参数,并采用无监督的传播过程及一个由多层感知机(MLP)构成的“提炼网络”来迭代更新嵌入向量。xGCN能显著减少模型参数数量、加速训练过程,并在社交推荐任务中获得更高的预测准确率。
另一方面,深度表征学习模型通常缺乏可解释性,而提高模型的可解释性可以增强推荐结果的说服力,提升用户的信任和满意度。因此,我们提出了一种可解释性协同过滤框架ECF,旨在从用户的群体行为中挖掘出易于解读的兴趣簇。通过学习用户/物品到兴趣簇的稀疏映射,我们可以利用兴趣簇的标签以及用户-兴趣簇-物品的路径实现可解释推荐。为了学习到高质量的兴趣簇,我们从语义相似性、标签相似性和独立性三个方面设计了不同的损失函数,以实现模型的端到端优化。ECF框架具有广泛的应用场景,如用户标签生成、可解释召回、带有主题的相似物品列表推荐和定向广告中的相似人群模型等。
网址 www.bufancm.com
邮编:100875
地址:北京市海淀区新外大街19号电子楼