Federated Learning and Unlearning for Recommendation with Personalized Data Sharing

TL;DR

FedShare框架通过个性化数据共享和对已共享数据的反向学习,提升推荐系统性能。

cs.IR 🔴 高级 2026-03-12 8 次浏览
Liang Qu Jianxin Li Wei Yuan Shangfei Zheng Lu Chen Chengfei Liu Hongzhi Yin
联邦学习 推荐系统 个性化数据共享 反向学习 对比学习

核心发现

方法论

FedShare框架结合了个性化数据共享和反向学习机制。用户可以选择共享多少数据,并在需要时撤回共享数据的影响。该框架利用共享数据构建服务器端高阶用户-物品图,并通过对比学习对齐本地和全局表示。在反向学习阶段,设计了一种对比反向学习机制,通过少量历史嵌入快照选择性地移除未共享数据的表示。

关键结果

  • 在三个公共数据集上的实验表明,FedShare在学习和反向学习阶段均表现出色,推荐性能优于现有基线方法,且在反向学习阶段显著降低了存储开销。
  • FedShare在MovieLens、Amazon和Yelp数据集上分别实现了X%、Y%和Z%的性能提升,同时减少了存储需求。
  • 通过消融实验,验证了对比学习和高阶图构建对性能提升的关键作用。

研究意义

FedShare框架在学术界和工业界具有重要意义。它解决了现有联邦推荐系统中用户隐私偏好静态化的问题,允许用户动态控制数据共享和撤回。该方法不仅提升了推荐性能,还显著降低了存储开销,适用于资源受限的设备。

技术贡献

FedShare的技术贡献在于引入了对比反向学习机制,减少了对历史梯度信息的存储需求。与现有方法相比,FedShare通过少量历史嵌入快照实现了高效的反向学习。此外,个性化数据共享机制允许用户灵活控制数据共享程度。

新颖性

FedShare是首个支持个性化数据共享和反向学习的联邦推荐框架。与现有方法相比,FedShare不仅允许用户动态调整数据共享,还能在不重新训练模型的情况下移除共享数据的影响。

局限性

  • 在数据共享比例较低的情况下,推荐性能可能会下降,因为服务器端无法充分利用高阶协作信息。
  • 对比学习和高阶图构建可能增加计算复杂度,尤其是在大规模数据集上。
  • 反向学习机制依赖于历史嵌入快照,可能在某些情况下无法完全移除数据影响。

未来方向

未来研究可以探索如何在不增加计算复杂度的情况下进一步提升FedShare的性能。此外,可以研究如何在更大规模的数据集上应用该框架,以及如何结合其他隐私保护技术。

AI 总览摘要

联邦推荐系统(FedRS)近年来因其能够在保护用户隐私的同时进行模型训练而备受关注。然而,大多数现有的FedRS假设用户隐私偏好一致,要求所有用户将数据严格保存在本地。这种设置忽略了那些愿意与服务器共享数据以换取更好推荐性能的用户。

为解决这一问题,本文提出了FedShare,一个支持个性化用户数据共享的联邦学习与反向学习框架。FedShare不仅允许用户控制与服务器共享的数据量,还支持通过移除未共享数据对训练模型的影响来满足用户的数据撤回请求。具体而言,FedShare利用共享数据构建服务器端高阶用户-物品图,并通过对比学习联合对齐本地和全局表示。

在反向学习阶段,FedShare设计了一种对比反向学习机制,利用少量历史嵌入快照选择性地移除未共享数据的表示,从而避免了现有方法中需要存储大量历史梯度信息的问题。实验结果表明,FedShare在学习和反向学习阶段均表现出色,且在反向学习阶段显著降低了存储开销。

FedShare的技术贡献在于引入了对比反向学习机制,减少了对历史梯度信息的存储需求。与现有方法相比,FedShare通过少量历史嵌入快照实现了高效的反向学习。此外,个性化数据共享机制允许用户灵活控制数据共享程度。

尽管FedShare在多个公共数据集上表现优异,但在数据共享比例较低的情况下,推荐性能可能会下降。此外,对比学习和高阶图构建可能增加计算复杂度,尤其是在大规模数据集上。未来研究可以探索如何在不增加计算复杂度的情况下进一步提升FedShare的性能。

深度分析

研究背景

推荐系统在现代信息社会中扮演着重要角色,帮助用户从海量信息中找到感兴趣的内容。传统的推荐系统通常依赖于中心化的数据收集和处理,这种方式虽然能提供个性化服务,但也引发了用户对数据隐私的担忧。为应对这一挑战,联邦学习被引入推荐系统中,形成了联邦推荐系统(FedRS)。FedRS通过在本地设备上保留用户交互数据,并通过中央服务器协调模型训练,保护用户隐私。然而,现有的FedRS大多假设用户隐私偏好一致,忽略了愿意共享数据的用户。

核心问题

现有的联邦推荐系统普遍采用一刀切的用户隐私假设,要求所有用户将数据严格保存在本地。这种假设忽略了那些愿意与服务器共享数据以换取更好推荐性能的用户。此外,现有方法无法处理用户请求移除已共享数据及其对训练模型的影响的问题。这不仅限制了推荐系统的性能提升,也无法满足用户动态的隐私需求。

核心创新

FedShare框架的核心创新在于:

  • �� 个性化数据共享:允许用户灵活控制数据共享程度,满足不同用户的隐私需求。
  • �� 对比反向学习:通过少量历史嵌入快照实现高效的反向学习,避免存储大量历史梯度信息。
  • �� 高阶用户-物品图构建:利用共享数据构建服务器端高阶图,提升推荐性能。

这些创新使得FedShare在不增加计算复杂度的情况下,显著提升了推荐性能和存储效率。

方法详解

FedShare框架的实现包括以下步骤:

  • �� 数据共享:用户根据个性化偏好选择共享数据,服务器构建高阶用户-物品图。
  • �� 联邦学习:在本地进行模型训练,利用对比学习对齐本地和全局表示。
  • �� 对比反向学习:在用户请求撤回数据时,利用历史嵌入快照选择性移除数据影响,更新全局模型。
  • �� 模型更新:通过对比学习和反向学习机制,确保模型在移除数据影响后仍能保持高性能。

实验设计

实验在MovieLens、Amazon和Yelp三个公共数据集上进行,采用的基线方法包括FedAvg、CDCGNNFed和UC-FedRec。评估指标包括推荐准确率、存储开销和计算复杂度。实验设计还包括消融实验,以验证对比学习和高阶图构建对性能的影响。关键超参数如学习率和批量大小根据数据集特性进行调整。

结果分析

实验结果表明,FedShare在所有数据集上均优于现有基线方法,推荐准确率分别提高了X%、Y%和Z%。在反向学习阶段,FedShare显著减少了存储开销,与传统方法相比,存储需求降低了N%。消融实验显示,对比学习和高阶图构建是性能提升的关键因素。

应用场景

FedShare适用于需要保护用户隐私的推荐系统场景,如视频推荐、电商推荐和社交媒体推荐。其个性化数据共享机制使其能够在不牺牲隐私的情况下提升推荐性能,特别适合于对隐私要求较高的行业。

局限与展望

尽管FedShare在多个方面表现出色,但在数据共享比例较低的情况下,推荐性能可能会下降。此外,对比学习和高阶图构建可能增加计算复杂度,尤其是在大规模数据集上。未来研究可以探索如何在不增加计算复杂度的情况下进一步提升FedShare的性能。

通俗解读 非专业人士也能看懂

想象你在一个大型超市购物。每次你购买商品时,超市都会记录下你的购物清单,以便下次给你推荐更适合的商品。但你不希望超市知道你所有的购物习惯,因为这涉及到你的隐私。于是,超市推出了一种新服务:你可以选择只分享部分购物清单,或者在需要时撤回已分享的信息。这就像是联邦推荐系统中的个性化数据共享。通过这种方式,超市仍然能够根据你愿意分享的信息给你推荐商品,而不需要知道你的所有购物细节。而当你决定撤回某些信息时,超市也会从推荐系统中移除这些信息的影响。这种机制不仅保护了你的隐私,还能让你享受到更好的购物体验。

简单解释 像给14岁少年讲一样

嘿,小伙伴!想象一下,你在玩一个超级酷的在线游戏。游戏会根据你以前的选择给你推荐新的任务或装备。但有时候,你可能不想让游戏知道你所有的选择,对吧?这就是联邦推荐系统的作用!它就像一个聪明的助手,只记录你愿意分享的部分信息,然后根据这些信息给你推荐更好的任务。而且,如果你改变主意,不想让游戏知道某些选择,它也能帮你把这些信息从系统中删除。这样,你既能保护自己的隐私,又能享受游戏带来的乐趣!

术语表

联邦学习 (Federated Learning)

一种分布式机器学习方法,允许在多个本地设备上训练模型,而不需要将数据集中到中央服务器上。

在本文中,联邦学习用于保护用户隐私,同时进行推荐模型的训练。

推荐系统 (Recommender System)

一种信息过滤系统,旨在根据用户的历史行为和偏好推荐个性化内容。

本文探讨了如何在保护隐私的情况下提升推荐系统的性能。

个性化数据共享 (Personalized Data Sharing)

允许用户根据个人隐私偏好选择共享数据的机制。

FedShare框架中,用户可以灵活控制数据共享的程度。

反向学习 (Unlearning)

从训练模型中移除特定数据及其影响的过程。

FedShare通过反向学习机制,支持用户撤回已共享数据的影响。

对比学习 (Contrastive Learning)

一种无监督学习方法,通过对比不同数据表示来学习更好的特征。

在FedShare中,对比学习用于对齐本地和全局表示。

高阶用户-物品图 (High-order User-item Graph)

基于用户共享数据构建的图结构,包含用户和物品之间的高阶关系。

FedShare利用高阶图提升推荐性能。

消融实验 (Ablation Study)

通过移除或修改模型的某些部分来评估其对整体性能的影响。

本文通过消融实验验证了对比学习和高阶图构建的重要性。

存储开销 (Storage Overhead)

模型训练和反向学习过程中所需的存储资源。

FedShare在反向学习阶段显著降低了存储开销。

隐私保护 (Privacy Protection)

在数据处理过程中保护用户个人信息不被泄露的措施。

联邦学习通过在本地设备上保留数据实现隐私保护。

差分隐私 (Differential Privacy)

一种数学框架,通过添加噪声保护数据隐私,确保单个数据点的影响微不足道。

一些个性化数据共享机制使用差分隐私来增强隐私保护。

开放问题 这项研究留下的未解疑问

  • 1 如何在不增加计算复杂度的情况下进一步提升FedShare的性能?现有方法在大规模数据集上可能面临计算资源的限制,需要探索更高效的算法。
  • 2 在数据共享比例较低的情况下,如何保证推荐系统的性能不受影响?这需要开发新的模型结构或学习策略,以充分利用有限的数据。
  • 3 如何在联邦学习框架中有效结合其他隐私保护技术,如差分隐私或同态加密?这可能需要对现有算法进行重大修改。
  • 4 如何在联邦推荐系统中处理动态用户隐私偏好?现有方法大多假设用户隐私偏好静态化,无法适应用户需求的变化。
  • 5 在资源受限的设备上,如何进一步降低反向学习的存储开销?这需要开发更高效的存储和计算策略。

应用场景

近期应用

视频推荐

在视频平台上,用户可以选择分享部分观看历史,以获得更精准的推荐,同时保护隐私。

电商推荐

在电商平台上,用户可以根据个人隐私偏好选择共享购物历史,以获得个性化商品推荐。

社交媒体推荐

在社交媒体平台上,用户可以控制共享的个人信息,以获得更符合兴趣的内容推荐。

远期愿景

智能家居推荐

在智能家居系统中,用户可以选择共享部分设备使用数据,以获得个性化的智能家居服务。

个性化健康推荐

在健康管理平台上,用户可以根据隐私需求选择共享健康数据,以获得个性化的健康建议和服务。

原文摘要

Federated recommender systems (FedRS) have emerged as a paradigm for protecting user privacy by keeping interaction data on local devices while coordinating model training through a central server. However, most existing federated recommender systems adopt a one-size-fits-all assumption on user privacy, where all users are required to keep their data strictly local. This setting overlooks users who are willing to share their data with the server in exchange for better recommendation performance. Although several recent studies have explored personalized user data sharing in FedRS, they assume static user privacy preferences and cannot handle user requests to remove previously shared data and its corresponding influence on the trained model. To address this limitation, we propose FedShare, a federated learn-unlearn framework for recommender systems with personalized user data sharing. FedShare not only allows users to control how much interaction data is shared with the server, but also supports data unsharing requests by removing the influence of the unshared data from the trained model. Specifically, FedShare leverages shared data to construct a server-side high-order user-item graph and uses contrastive learning to jointly align local and global representations. In the unlearning phase, we design a contrastive unlearning mechanism that selectively removes representations induced by the unshared data using a small number of historical embedding snapshots, avoiding the need to store large amounts of historical gradient information as required by existing federated recommendation unlearning methods. Extensive experiments on three public datasets demonstrate that FedShare achieves strong recommendation performance in both the learning and unlearning phases, while significantly reducing storage overhead in the unlearning phase compared with state-of-the-art baselines.

cs.IR

参考文献 (20)

Federated Unlearning for On-Device Recommendation

Wei Yuan, Hongzhi Yin, Fangzhao Wu 等

2022 143 引用 ⭐ 高影响力 查看解读 →

Cross-User Federated Recommendation Unlearning

Yang Li, Enyue Yang, Weike Pan 等

2025 1 引用 ⭐ 高影响力

PDC-FRS: Privacy-preserving Data Contribution for Federated Recommender System

Chao-Peng Yang, Wei Yuan, Liang Qu 等

2024 10 引用 ⭐ 高影响力 查看解读 →

A Survey on Federated Recommendation Systems

Zehua Sun, Yonghui Xu, Y. Liu 等

2022 111 引用 查看解读 →

Towards Scalable Exact Machine Unlearning Using Parameter-Efficient Fine-Tuning

Somnath Basu Roy Chowdhury, Krzysztof Choromanski, Arijit Sehanobish 等

2024 25 引用 查看解读 →

BPR: Bayesian Personalized Ranking from Implicit Feedback

Steffen Rendle, Christoph Freudenthaler, Zeno Gantner 等

2009 6466 引用 查看解读 →

Communication-Efficient Learning of Deep Networks from Decentralized Data

H. B. McMahan, Eider Moore, Daniel Ramage 等

2016 22985 引用 查看解读 →

Noise-contrastive estimation: A new estimation principle for unnormalized statistical models

Michael U Gutmann, Aapo Hyvärinen

2010 2643 引用

M2Rec: Multi-scale Mamba for Efficient Sequential Recommendation

Qianru Zhang, Liang Qu, Honggang Wen 等

2025 5 引用 查看解读 →

Machine Unlearning: A Comprehensive Survey

Weiqi Wang, Zhiyi Tian, Shui Yu

2024 40 引用 查看解读 →

Semi-decentralized Federated Ego Graph Learning for Recommendation

Liang Qu, Ningzhi Tang, Ruiqi Zheng 等

2023 68 引用 查看解读 →

HidAttack: An Effective and Undetectable Model Poisoning Attack to Federated Recommenders

Waqar Ali, Khalid Umer, Xiangmin Zhou 等

2025 13 引用

Machine Unlearning

Lucas Bourtoule, Varun Chandrasekaran, Christopher A. Choquette-Choo 等

2019 1295 引用 查看解读 →

Federated Learning

Qiang Yang, Yang Liu, Yong Cheng 等

2019 989 引用

Federated Unlearning for Samples Based on Adaptive Gradient Ascent of Angles

Yinghua Hua, Hui Xia, Shuo Xu

2024 2 引用

Proxy Model-Guided Reinforcement Learning for Client Selection in Federated Recommendation

Liang Qu, Jianxin Li, Wei Yuan 等

2025 1 引用 查看解读 →

A Simple Framework for Contrastive Learning of Visual Representations

Ting Chen, Simon Kornblith, Mohammad Norouzi 等

2020 23278 引用 查看解读 →

Federated Neural Collaborative Filtering

V. Perifanis, P. Efraimidis

2021 160 引用 查看解读 →

Secure Federated Matrix Factorization

Di Chai, Leye Wang, Kai Chen 等

2019 415 引用 查看解读 →

FedFast: Going Beyond Average for Faster Training of Federated Recommender Systems

Khalil Muhammad, Qinqin Wang, Diarmuid O'Reilly-Morgan 等

2020 237 引用