Comment Saboter l'Apprentissage Collectif par Commérage - Sorbonne Université
Conference Papers Year : 2024

Comment Saboter l'Apprentissage Collectif par Commérage

Abstract

L’apprentissage collectif par commérage permet l’apprentissage automatique d’un modèle sans utiliser de serveur central. Ce contrôle distribué incite à étudier la possibilité d’attaques malveillantes par les participants eux-mêmes. Alors que les attaques par empoisonnement sur les autres formes d’apprentissage automatique ont été largement étudiées, leurs effets sur l’apprentissage collectif par commérage ne fait pas l’objet du même niveau d’attention. Notre travail est le premier à proposer une méthodologie pour évaluer les attaques d’empoisonnement dans ce contexte dans des scénarios avec ou sans attrition. En outre, afin d’évaluer notre méthodologie sur une étude de cas représentative, nous avons étendu un simulateur existant avec un module d’injection d’attaques par empoisonnement.
Fichier principal
Vignette du fichier
_ALGOTEL__Comment_Saboter_l_Apprentissage_Collectif_par_Commérage.pdf (715.77 Ko) Télécharger le fichier
Origin Files produced by the author(s)

Dates and versions

hal-04565529 , version 1 (03-05-2024)

Identifiers

  • HAL Id : hal-04565529 , version 1

Cite

Alexandre Pham, Maria Potop-Butucaru, Sébastien Tixeuil, Serge Fdida. Comment Saboter l'Apprentissage Collectif par Commérage. AlgoTel 2024 – 26èmes Rencontres Francophones sur les Aspects Algorithmiques des Télécommunications, May 2024, Saint-Briac-sur-Mer, France. ⟨hal-04565529⟩
276 View
53 Download

Share

More