Comment construire des IA qui savent douter (raisonnablement) ?
En dépit des progrès récents du Machine Learning (ML), ses applications à des domaines critiques (industrie nucléaire, médecine, algorithmes de trading) restent encore rares. En cause, l’incapacité des modèles de ML actuels à représenter de manière fiable la notion d’incertitude. En un mot : ils ne savent pas douter raisonnablement de leurs prédictions ! Raisonner rationnellement en présence d’incertitudes, voilà pourtant ce que permet l’approche bayésienne du ML, une idée déjà ancienne. Combinée à la flexibilité des techniques récentes du Deep Learning, cette approche ouvre un nouveau champ de possibilités. Dans l’immédiat elle offre une panoplie d’outils aux chercheurs en IA pour expérimenter une grande diversité de modèles prédictifs. Cet article peut se lire comme une introduction à ce sujet. Il présente les concepts, quelques applications ainsi que la librairie Edward intégrée à TensorFlow et développée par Google qui concrétise cette approche.