Enjeux scientifiques et épistémologiques de l'explicabilité de la prédiction de phénomènes physiques par de l'apprentissage machine profond - Sorbonne Université Accéder directement au contenu
Communication Dans Un Congrès Année : 2021

Enjeux scientifiques et épistémologiques de l'explicabilité de la prédiction de phénomènes physiques par de l'apprentissage machine profond

Résumé

Depuis les travaux fondateurs de Galilée, la connaissance scientifique a été significativement améliorée grâce à l'approche hypothético-déductive qui décrit la physique effective d'un phénomène par un modèle utilisant souvent des équations mathématiques. Pour autant, l'approche hypothético-déductive atteint certaines limites pour l'analyse de phénomènes plus complexes et parfois couplés. Dans un même temps, en 2010, l'apprentissage machine produit des résultats spectaculaires dans le domaine de la reconnaissance des formes bouleversant radicalement la discipline du traitement du signal. En revisitant l'analogie de la ligne de Platon, l'intelligence Artificielle, et plus précisément l'apprentissage machine, pourrait être un médiateur entre l'univers des mathématiques et les phénomènes d'intérêt. Toutefois, l'utilisation de l'apprentissage machine provoque des légitimes interrogations dont celle en particulier de l'évolution du savoir et de l'intégrité scientifique en raison du caractère limité et contestable du « prédire sans comprendre ». Le talon d'Achille des méthodes d'apprentissage machine les plus performantes, comme les réseaux de neurones profonds, concerne la complexité à fournir des explications concernant leurs prédictions. Nos travaux de recherche actuels ont pour objet la conception de modèles explicatifs de l'apprentissage machine profond caractérisés par les fonctions épistémiques mises en jeu. Cette communication a pour objectif de présenter premièrement une clarification épistémologique sur l'interprétabilité et l'explicabilité en apprentissage machine puis de présenter nos travaux en cours sur la génération de modèles explicatifs permettant d'utiliser scientifiquement les méthodes d'apprentissage afin d'interroger notre monde pour en améliorer sa connaissance. Cet exposé sera illustré par des applications en apprentissage machine ayant comme cadre les équations aux dérivées partielles.
Fichier non déposé

Dates et versions

hal-03345671 , version 1 (15-09-2021)

Identifiants

  • HAL Id : hal-03345671 , version 1

Citer

Christophe Denis. Enjeux scientifiques et épistémologiques de l'explicabilité de la prédiction de phénomènes physiques par de l'apprentissage machine profond. VIIIe congrès de la Société de Philosophie des Sciences, Sep 2021, Mons, Belgique. ⟨hal-03345671⟩
117 Consultations
0 Téléchargements

Partager

Gmail Facebook X LinkedIn More