index - Confiance.ai

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Semantic segmentation Neural network Arcadia Method Christoffel functions ML Engineering Multi-fidelity BO Case-based Distributed learning Body of knowledge Concepts Automated vehicle Collaboration Human-IA Anomaly Trustworthiness Attributes Knowledge fusion AI component evaluation methodology Explainability Generative Models Neural Network Computer Vision and Pattern Recognition Anomaly Detection Confiance explicabilité Explicabilité Uncertainty Adversarial Attacks AI-Based Systems Intelligence artificielle Adversarial physical attack AI Safety Reliability AI systems Monitoring Adversarial attacks Contextual Evaluation Realization theory Aide à la décision Recurrent Neural Networks Attack transferability Trustworthiness Body-of-Knowledge Boosted Decision Trees BDT Bayesian optimization Counterfactuals Trustworthy Engineering processes Cryptography and Security Vision par ordinateur Machine Learning Autonomous system Anomaly detection Adversarial Training Adversarial examples Artificial Intelligence Knowledge graph Neural ODEs Explainable AI Trustworthiness Assessment Bias Detection Artificial intelligence Intelligence Articifielle Complexity Critical systems Mixed Integer Programming Bayesian inference Bayesian Optimization AI System Characterization Sûreté Computer Vision Al monitoring System Identification Assessment AI Computer vision Adversarial attack XAI AI explainability Robustness Knowledge extraction Confiance Apprentissage automatique Tools Sûreté de fonctionnement AI Governance Conformal Prediction AI engineering Long Short-Term Memory Neural Architecture Search Calibration AI-Based Critical Systems Conformal prediction Certification Assurance Cases AI Robustness Branch-and-Bound algorithm Assurance case Robustesse ODD AI-Systems Engineering Machine learning AI-based systems