Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Aide à la décision Conformal Prediction AI explainability Attack transferability Engineering processes Uncertainty Robustesse Assessment Knowledge extraction AI Safety Machine learning Calibration Adversarial physical attack Apprentissage automatique Distributed learning Christoffel functions Classification Sûreté ODD Boosted Decision Trees BDT Intelligence Articifielle AI-Based Systems Explainable AI Adversarial attacks Computer Vision Trustworthy AI Data Visualization Assurance case Neural Network AI-Based Critical Systems Branch-and-Bound algorithm Trustworthy Reliability Neural Architecture Search Intelligence artificielle Neural ODEs Adversarial examples Long Short-Term Memory XAI Semantic segmentation System Identification Computer Vision and Pattern Recognition Complexity Automated vehicle Tools Bayesian inference AI engineering Case-based Sûreté de fonctionnement Confiance explicabilité Adversarial attack Mixed Integer Programming Adversarial Training AI System Characterization Confiance Realization theory Explicabilité Generative Models Robustness Multi-fidelity BO Knowledge graph Neural network AI Bias Detection Recurrent Neural Networks Trustworthiness Attributes Body-of-Knowledge Knowledge fusion AI-Systems Engineering AI component evaluation methodology Body of knowledge Confidence calibration Computer vision AI-based systems Anomaly Assurance Cases Arcadia Method Artificial intelligence AI Robustness Adversarial Attacks ML Engineering Al monitoring Artificial Intelligence Trustworthiness Data Analysis AI Governance Anomaly Detection Certification AI systems Bayesian Optimization Concepts Monitoring Collaboration Human-IA Trustworthiness Assessment Bayesian optimization Machine Learning Anomaly detection Vision par ordinateur Autonomous system Explainability