Défense contre les attaques par porte dérobée en apprentissage fédéré par estimation du motif d'attaque et élagage
Résumé
This paper proposes a post-training defense against pattern-triggered backdoor attacks in federated learning contexts.
This approach relies first on the server estimating the attack pattern. The server then prunes parameters of the attacked model that
are responsible for the attack. This scheme offers an improvement over the existing approaches by demonstrating robustness to data
heterogeneity among users without needing additional information from users and regardless of the number of malicious clients.
Based on comparison with existing state-of-the-art methods, the proposed method is shown to succeed in mitigating backdoor
attacks while preserving high accuracy on clean inputs.
Dans un cadre fédéré, nous proposons une défense contre les attaques par porte dérobée déclenchées par l'ajout d'un motif au sein des données d'entraînement. Notre défense s'appuie sur les paramètres du modèle fédéré pour estimer le motif déclencheur et ensuite élaguer les neurones responsables de l'attaque au sein du réseau. Contrairement aux approches existantes, notre approche ne nécessite pas d'informations supplémentaires de la part des participants au processus d'apprentissage collaboratif et surtout s'avère robuste face à l'hétérogénéité des données et ce quel que soit le nombre d'acteurs malveillants. En comparaison
avec les méthodes de l'état-de-l'art, notre défense apparaît plus adaptée pour atténuer les attaques par porte dérobée tout en préservant une grande précision sur des données bénignes.
Fichier principal
23_GRETSI.pdf (476.97 Ko)
Télécharger le fichier
Fichier principal
poster_FabiolaEspinoza_GRETSI.pdf (990.2 Ko)
Télécharger le fichier
Origine | Fichiers produits par l'(les) auteur(s) |
---|
Origine | Fichiers produits par l'(les) auteur(s) |
---|