Biais algorithmiques : l’impossible neutralité de l’IA

Louis de Diesbach, éthicien de la technique, et Antoine Saillenfest, chercheur en IA chez Onepoint, nous partagent leurs réflexions sur les biais algorithmiques. Les supprimer, ou a minima réduire leur influence, est-il un défi insurmontable ? Ce problème central de l’intelligence artificielle n’est pas qu’un sujet technique mais soulève aussi un certain nombre de questions d’ordre philosophique.

Mais qu’entend-on par biais algorithmique ? Cette notion renvoie souvent à une prise de décision par un algorithme jugée comme injuste ou inéquitable à l’égard d’au moins un groupe d’individus caractérisé par un ou plusieurs critères dont on estime qu’ils ne devraient pas influencer cette décision. L’origine des biais est multiple. S’ils sont souvent présents dans les données qui servent à entraîner les modèles qui, de fait, en héritent, ils peuvent aussi venir de modèles imparfaitement développés.

Des discriminations à l’embauche aux préjugés racistes amplifiés par certains programmes, les biais algorithmiques sont omniprésents. Mais il ne s’agit pas uniquement d’une question de technique. Ils reflètent aussi nos propres imperfections humaines et nos préjugés. La neutralité en matière algorithmique n’existe généralement pas.

Cette question de l’identification et la réduction des biais algorithmiques peut-être abordée sous bien des angles. Mais l’origine du mal ne réside-t-elle pas finalement dans notre humanité ? Par ailleurs, doit-on agir sur les biais coûte que coûte ou développer des algorithmes plus transparents et dont les décisions peuvent être comprises ?

Pour explorer davantage cette réflexion et les perspectives futures, retrouvez l’article sur l’ADN.