Comment construire des IA qui savent douter (raisonnablement) ?

En dépit des progrès récents du Machine Learning (ML), ses applications à des domaines critiques (industrie nucléaire, médecine, algorithmes de trading) restent encore rares. En cause, l’incapacité des modèles de ML actuels à représenter de manière fiable la notion d’incertitude. En un mot : ils ne savent pas douter raisonnablement de leurs prédictions ! Raisonner rationnellement en présence d’incertitudes, voilà pourtant ce que permet l’approche bayésienne du ML, une idée déjà ancienne. Combinée à la flexibilité des techniques récentes du Deep Learning, cette approche ouvre un nouveau champ de possibilités. Dans l’immédiat elle offre une panoplie d’outils aux chercheurs en IA pour expérimenter une grande diversité de modèles prédictifs. Cet article peut se lire comme une introduction à ce sujet. Il présente les concepts, quelques applications ainsi que la librairie Edward intégrée à TensorFlow et développée par Google qui concrétise cette approche.

1. Les limitations du ML dans sa formulation usuelle

Quand un chirurgien, la veille d’une opération délicate, prend une décision basée sur l’interprétation qu’il fait d’un cliché radiologique, il engage sa responsabilité professionnelle. Pour assumer ce risque il doit être en mesure de l’évaluer rationnellement.

En d’autres termes, il doit mesurer sa propre incertitude quant à l’analyse qu’il fait d’un contexte clinique pour jauger de la pertinence d’une stratégie face à différentes alternatives. De même, un trader qui engage des sommes importantes doit évaluer le risque qu’il fait prendre à l’institution pour laquelle il opère. Enfin, un conducteur qui engage son véhicule dans une manœuvre de dépassement doit évaluer le risque de mal interpréter sa perception du paysage routier.

Chacune de ces trois décisions pourrait un jour être confiée à une IA, à condition toutefois que celle-ci sache évaluer les incertitudes de la situation à laquelle elle est confrontée pour être en mesure, au-delà d’un seuil de doute raisonnable, de déléguer l’analyse à un autre système ou de laisser la décision finale à un humain.

Le problème désormais célèbre des « Adversarial Examples » illustre jusqu’à la caricature ces limitations du ML. Comme nous l’avions expliqué dans un article précédent [CSE] rappelons qu’il est possible pour un individu mal intentionné d’induire en erreur un système de classification d’image en superposant aux images originales des perturbations malicieuses mais invisibles à l’œil humains.

Auteur : Pirmin Lemberger

Directeur scientifique