Des prédictions plus intelligentes pour des erreurs moins coûteuses
Roman Plaud, doctorant du laboratoire TALia de Onepoint, présente ses travaux de thèse sur la notion de prédiction optimale dans la cadre de la classification hiérarchique à ICML 2025 (International Conference on Machine Learning)
Dans de nombreuses tâches du monde réel, on classe les objets selon une hiérarchie : par exemple, une photo peut d’abord être classée comme « animal » ou « véhicule », puis plus précisément comme « chien » ou « voiture ». Dans ce contexte, toutes les erreurs ne se valent pas. Par exemple, si une voiture autonome confond un lampadaire avec un arbre, c’est certainement moins grave que de le confondre avec un piéton.
Supposons que l’on dispose d’un modèle capable d’estimer une distribution de probabilité sur l’ensemble des classes. À partir de cette estimation, on souhaite prendre la meilleure décision possible. Intuitivement, cette décision devrait dépendre du coût des erreurs de classification.
Pourtant, les méthodes actuelles utilisent souvent des règles simples pour faire leurs prédictions, sans tenir compte de la gravité réelle des erreurs. Notre travail propose une approche plus fine : nous proposons un cadre mathématique adapté la tâche de classification hiérarchique qui permet de choisir les prédictions optimales en fonction de la métrique que l’on souhaite vraiment optimiser.
En bref : on propose d’adapter la façon dont on interprète les estimations d’un modèle probabiliste… pour que les prédictions qu’on fait soit vraiment alignées avec les enjeux du monde réel.
Résultat : les modèles deviennent plus performants, surtout quand les situations sont ambiguës. Cela peut avoir un vrai impact dans des domaines concrets comme le diagnostic médical, la surveillance de la faune ou encore l’organisation de documents.