Interprétabilité et explicabilité de phénomènes prédits par de l’apprentissage machine - Sorbonne Université Accéder directement au contenu
Article Dans Une Revue Revue Ouverte d'Intelligence Artificielle Année : 2022

Interprétabilité et explicabilité de phénomènes prédits par de l’apprentissage machine

Résumé

The lack of explainability of machine learning (ML) techniques poses operational, legal and ethical problems. One of the main goals of our project is to provide ethical explanations of the outputs generated by an ML-based application, considered as a black box. The first step of this project, presented in this paper, is to show that the validation of these black boxes differs epistemologically from that implemented in the framework of a mathematical and causal modeling of a physical phenomenon. The major difference is that an ML method does not claim to represent causality between input and output parameters. After having provided a clarification and an adaptation of the notions of interpretability and explainability as found in the already abundant literature on the subject, we show in this article the fruitfulness of implementing the epistemological distinctions between the different epistemic functions of a model, on the one hand, and between the epistemic function and the use of a model, on the other hand. Finally, the last part of this article presents our current work on the evaluation of an explanation, which can be more persuasive than informative, and which can therefore raise ethical problems.
Le déficit d’explicabilité des techniques d’apprentissage machine (AM) pose des problèmes opérationnels, juridiques et éthiques. Un des principaux objectifs de notre projet est de fournir des explications éthiques des sorties générées par une application fondée sur de l’AM, considérée comme une boîte noire. La première étape de ce projet, présentée dans cet article, consiste à montrer que la validation de ces boîtes noires diffère épistémologiquement de celle mise en place dans le cadre d’une modélisation mathéma- tique et causale d’un phénomène physique. La différence majeure est qu’une méthode d’AM ne prétend pas représenter une causalité entre les paramètres d’entrées et ceux de sortie. Après avoir proposé une clarification et une adaptation des notions d’inter- prétabilité et d’explicabilité telles qu’on les rencontre dans la littérature déjà abondante sur le sujet, nous montrons dans cet article l’intérêt de mettre en œuvre les distinctions épistémologiques entre les différentes fonctions épistémiques d’un modèle, d’une part, et entre la fonction épistémique et l’usage d’un modèle, d’autre part. Enfin, la dernière partie de cet article présente nos travaux en cours sur l’évaluation d’une explication, qui peut être plus persuasive qu’informative, ce qui peut ainsi causer des problèmes d’ordre éthique.
Fichier principal
Vignette du fichier
ROIA_2022__3_3-4_287_0.pdf (868.78 Ko) Télécharger le fichier
Origine : Fichiers éditeurs autorisés sur une archive ouverte

Dates et versions

hal-03640181 , version 1 (13-04-2022)

Licence

Paternité

Identifiants

Citer

Christophe Denis, Franck Varenne. Interprétabilité et explicabilité de phénomènes prédits par de l’apprentissage machine. Revue Ouverte d'Intelligence Artificielle, 2022, 3 (3-4), pp.287-310. ⟨10.5802/roia.32⟩. ⟨hal-03640181⟩
270 Consultations
223 Téléchargements

Altmetric

Partager

Gmail Facebook X LinkedIn More