index - Confiance.ai

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Conformal prediction Tools Explicabilité Adversarial attack System Identification Distributed learning Conformal Prediction Knowledge fusion Anomaly detection Monitoring Aide à la décision Christoffel functions Uncertainty AI-based systems Bias Detection Adversarial Training Computer vision Confiance Multi-fidelity BO Assurance Cases Bayesian Optimization Counterfactuals AI System Characterization Complexity Knowledge graph Realization theory Adversarial physical attack Contextual Evaluation Robustness Bayesian optimization Classification Assurance case Artificial intelligence Machine Learning Body of knowledge Neural ODEs Semantic segmentation AI systems AI Robustness Calibration AI-Based Systems Certification AI engineering ODD AI Trustworthiness Assessment Apprentissage automatique Recurrent Neural Networks Adversarial Attacks Computer Vision and Pattern Recognition Mixed Integer Programming Adversarial attacks Reliability AI-Systems Engineering Computer Vision AI-Based Critical Systems Autonomous system Neural network Boosted Decision Trees BDT Case-based Branch-and-Bound algorithm Machine learning Body-of-Knowledge Concepts Collaboration Human-IA Anomaly Al monitoring Automated vehicle Anomaly Detection Knowledge extraction AI component evaluation methodology XAI Explainability AI Safety Confiance explicabilité Sûreté de fonctionnement Attack transferability Intelligence artificielle Confidence calibration Explainable AI Vision par ordinateur Trustworthy Assessment Neural Network Engineering processes Intelligence Articifielle Adversarial examples Neural Architecture Search Robustesse AI Governance AI explainability Trustworthiness Attributes Arcadia Method Generative Models Artificial Intelligence Trustworthiness Bayesian inference Sûreté Long Short-Term Memory ML Engineering