Comment Saboter l'Apprentissage Collectif par Commérage
Abstract
L’apprentissage collectif par commérage permet l’apprentissage automatique d’un modèle sans utiliser de serveur central. Ce contrôle distribué incite à étudier la possibilité d’attaques malveillantes par les participants eux-mêmes.
Alors que les attaques par empoisonnement sur les autres formes d’apprentissage automatique ont été largement étudiées, leurs effets sur l’apprentissage collectif par commérage ne fait pas l’objet du même niveau d’attention. Notre travail est le premier à proposer une méthodologie pour évaluer les attaques d’empoisonnement dans ce contexte dans des scénarios avec ou sans attrition. En outre, afin d’évaluer notre méthodologie sur une étude de cas représentative, nous avons étendu un simulateur existant avec un module d’injection d’attaques par empoisonnement.
Fichier principal
_ALGOTEL__Comment_Saboter_l_Apprentissage_Collectif_par_Commérage.pdf (715.77 Ko)
Télécharger le fichier
Origin | Files produced by the author(s) |
---|