index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

System Identification Adversarial physical attack Distribution based method Semantic segmentation Explainable AI Monitoring Adversarial examples Bias Detection Christoffel functions ED-324/ARP6983 AI-Based Critical Systems Engineering Processes Machine Learning ODD Attack transferability Data Stream Data Analysis Conformal prediction Robustness Deep neural network classifiers Explicabilité Deployment Distributed learning Deep learning Embarqué Cycle-accurate simulator Data Quality Critical systems Decision tree Concepts Reliability AI System Characterization Cryptography and Security Adversarial Training Neural Network AI-Based Systems Sûreté Data Stream Processing Long Short-Term Memory Data trustworthiness Complexity Automated vehicle Example-based Confiance explicabilité Contextual Evaluation Robustesse Trustworthiness Assessment Case-based Recurrent Neural Networks Certification Calibration Explicability Deep Reinforcement Learning AI-Systems Engineering Branch-and-Bound algorithm Bayesian inference Embedded AI AI-based systems Explainability Anomaly Detection Neural network Counterfactuals Generative Models XAI Custom search space Data-driven reachability Artificial intelligence Machine learning Intelligence Articifielle AI engineering Computer vision Bayesian Optimization Edge computing Trustworthiness Attributes Conformal Prediction Adversarial attacks Assurance case Evaluation Distributed Machine Learning Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Computer Vision and Pattern Recognition AI Neural ODEs Bayesian optimization Enalty Bayesian Neural Networks Dempster Shafer theory Anomaly Adversarial Attacks Mixed Integer Programming Anomaly detection Adversarial attack AI component evaluation methodology Explanations Computer Vision Arcadia Method Artificial Intelligence Confiance Data Visualization Realization theory Sûreté de fonctionnement