Source |
NIST Security |
Identifiant |
8442678 |
Date de publication |
2024-01-24 12:00:00 (vue: 2024-01-24 21:07:22) |
Titre |
Attaques de confidentialité dans l'apprentissage fédéré Privacy Attacks in Federated Learning |
Texte |
Cet article fait partie d'une série sur l'apprentissage fédéré préservant la vie privée.La série est une collaboration entre le NIST et le Centre pour l'éthique des données et l'innovation du gouvernement britannique.En savoir plus et lire tous les articles publiés à ce jour dans l'espace de collaboration d'ingénierie de la vie privée de NIST ou le blog CDEI.Notre premier article de la série a introduit le concept d'approche d'apprentissage fédéré-an pour la formation des modèles d'IA sur les données distribuées en partageant des mises à jour du modèle au lieu de la formation des données.À première vue, l'apprentissage fédéré semble être un ajustement parfait pour la vie privée car il évite complètement de partager des données
This post is part of a series on privacy-preserving federated learning. The series is a collaboration between NIST and the UK government\'s Centre for Data Ethics and Innovation. Learn more and read all the posts published to date at NIST\'s Privacy Engineering Collaboration Space or the CDEI blog . Our first post in the series introduced the concept of federated learning-an approach for training AI models on distributed data by sharing model updates instead of training data. At first glance, federated learning seems to be a perfect fit for privacy since it completely avoids sharing data |
Envoyé |
Oui |
Condensat |
all approach attacks avoids between blog cdei centre collaboration completely concept data date distributed engineering ethics federated first fit glance government innovation instead introduced learn learning model models more nist part perfect post posts preserving privacy published read seems series sharing since space training updates |
Tags |
|
Stories |
|
Notes |
★★★
|
Move |
|