index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Trustworthiness Attributes Fault tolerance Custom search space Data Visualization AI component evaluation methodology Fault tolerant systems Adversarial Training Adversarial physical attack Federated Learning Data Stream Computer Vision AI engineering Automated vehicle Example-based Distribution based method Data Analysis Complexity Monitoring ODD Explainable AI Explainability Bayesian inference Intelligence Articifielle Cryptography and Security Sûreté Ingénierie algorithmique de l’IA Counterfactuals Calibration Bayesian Optimization Data Quality Trustworthiness Assessment Critical systems Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Conformal prediction Robustness Data Stream Processing Explanations AI-Based Critical Systems Decision tree Deep neural network classifiers Explicabilité Distributed Machine Learning Enalty Bayesian Neural Networks Fault detection Realization theory Neural network Artificial intelligence Branch-and-Bound algorithm Recurrent Neural Networks Neural ODEs Computer vision Anomaly Detection Distributed learning Deep Reinforcement Learning Deep learning Confiance explicabilité Adversarial attack Adversarial Attacks XAI Sûreté de fonctionnement GPU Christoffel functions Data-driven reachability Mixed Integer Programming AI-based systems Conformal Prediction AI Semantic segmentation Contextual Evaluation Robustesse Embarqué Attack transferability Engineering Processes AI System Characterization AI-Based Systems FOS Computer and information sciences Hardware Computer Vision and Pattern Recognition Bias Detection Cycle-accurate simulator Fiabilité Adversarial examples Generative Models Machine Learning Influence Functions Anomaly detection Confiance Long Short-Term Memory Case-based Arcadia Method Concepts Artificial Intelligence Evaluation Anomaly Gas Distribution Adversarial attacks System Identification Embedded AI Neural Network Explicability