index - Confiance.ai

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

AI engineering Tools ODD Realization theory Computer vision Anomaly Detection Body of knowledge Recurrent Neural Networks Trustworthy Counterfactuals Christoffel functions Knowledge extraction AI systems Uncertainty AI Robustness Semantic segmentation Neural Network Aide à la décision Confiance explicabilité Intelligence artificielle Adversarial physical attack Adversarial attacks Monitoring Anomaly Contextual Evaluation ML Engineering AI-Systems Engineering Neural ODEs Arcadia Method Anomaly detection Explainable AI Trustworthiness Assessment AI Governance Vision par ordinateur Distributed learning Conformal Prediction Explainability Cryptography and Security Bayesian inference Sûreté de fonctionnement Neural Architecture Search Computer Vision and Pattern Recognition Assurance Cases Body-of-Knowledge Machine Learning Bayesian Optimization Computer Vision Mixed Integer Programming Long Short-Term Memory Bayesian optimization Trustworthiness Robustness Knowledge graph Neural network Apprentissage automatique Bias Detection Trustworthiness Attributes AI Safety Artificial intelligence Calibration Adversarial attack Attack transferability Concepts Multi-fidelity BO Critical systems Autonomous system Collaboration Human-IA Engineering processes Confiance Explicabilité Machine learning Case-based Al monitoring AI System Characterization Generative Models XAI Intelligence Articifielle Adversarial examples Certification System Identification Complexity Assurance case Artificial Intelligence Sûreté AI-Based Systems Branch-and-Bound algorithm Robustesse Reliability AI AI component evaluation methodology Adversarial Training Assessment Knowledge fusion Boosted Decision Trees BDT Conformal prediction Adversarial Attacks AI explainability AI-based systems AI-Based Critical Systems Automated vehicle