1. Les limitations du ML dans sa formulation usuelle
Quand un chirurgien, la veille d’une opération délicate, prend une décision basée sur l’interprétation qu’il fait d’un cliché radiologique, il engage sa responsabilité professionnelle. Pour assumer ce risque il doit être en mesure de l’évaluer rationnellement.
En d’autres termes, il doit mesurer sa propre incertitude quant à l’analyse qu’il fait d’un contexte clinique pour jauger de la pertinence d’une stratégie face à différentes alternatives. De même, un trader qui engage des sommes importantes doit évaluer le risque qu’il fait prendre à l’institution pour laquelle il opère. Enfin, un conducteur qui engage son véhicule dans une manœuvre de dépassement doit évaluer le risque de mal interpréter sa perception du paysage routier.
Chacune de ces trois décisions pourrait un jour être confiée à une IA, à condition toutefois que celle-ci sache évaluer les incertitudes de la situation à laquelle elle est confrontée pour être en mesure, au-delà d’un seuil de doute raisonnable, de déléguer l’analyse à un autre système ou de laisser la décision finale à un humain.
Le problème désormais célèbre des « Adversarial Examples » illustre jusqu’à la caricature ces limitations du ML. Comme nous l’avions expliqué dans un article précédent [CSE] rappelons qu’il est possible pour un individu mal intentionné d’induire en erreur un système de classification d’image en superposant aux images originales des perturbations malicieuses mais invisibles à l’œil humains.