L’Intelligence Artificielle : 7 mythes mis à l’épreuve

L’Intelligence Artificielle (IA) est dans tous les discours : films, nouvelles technologies ou encore politique ; avec des visions parfois extrêmes. Souvent dystopiques en science-fiction ou utopiques selon les GAFAMI. Simple buzzword ou réelle disruption technologique, qu’en est-il réellement ? 

Le problème initial vient de la définition de son créateur, John McCarthy, trop large : « Science et ingénierie de la création de machines intelligentes ». Pour mieux comprendre ce domaine et ses réelles possibilités, passons en revue 7 mythes sur l’IA pour mieux la comprendre.

 

Mythe N°1 : « L’IA, un mythe. »

Comme s’en est plaint John McCarthy, « dès que cela fonctionne, plus personne ne l’appelle IA ». En effet, lorsque nous évoquons le terme « Intelligence Artificielle », nous imaginons des voitures totalement autonomes, des programmes remplaçant des personnes dans le secteur tertiaire ou encore des robots pour les secteurs primaires et secondaires. La réalité est toute autre : omniprésente, souvent discrète, l’IA est bel et bien là. Prenons l’exemple des filtres anti-spams : banalisés aujourd’hui, ils sont pourtant porteurs d’intelligence. Succédant aux annuaires d’adresses IP spams créés par la MAPS (Mail Abuse Prevention System), SpamAssassin, créé en 2001 par Apache, a commencé à utiliser des algorithmes tels que le filtrage bayésien et les fuzzy checksums, pour distinguer les spams des mails légitimes. L’IA c’est aussi ces éléments-là.

Mythe N°2 « L’IA, plus intelligente qu’un humain. »

Les technologies capables de résoudre un problème plus efficacement ou plus rapidement que l’homme existent déjà, sur des tâches très spécifiques : résolution de jeux (AlphaGo de DeepMind), traduction de textes en diverses langues, détection d’anomalies sur des IRM, etc.

Cependant, l’intelligence n’est pas seulement une puissance cognitive, c’est aussi la capacité à s’adapter et à se généraliser. Alors que le Deep Learning permet l’apprentissage automatique, la généralisation à tous les domaines n’est pas encore possible.

Pourquoi ? Parce que les programmes d’aujourd’hui ne sont pas encore dotés de conscience ni de compréhension du contexte. Un exemple de cette lacune : l’algorithme de censure de Facebook avait supprimé la célèbre photographie d’une petite fille terrorisée durant la guerre du Vietnam. Le motif ? « Présence de nudité ». La photographie avait été finalement rajoutée manuellement pour son aspect historique.

Mythe N°3 : « L’IA, destructrice d’emplois. »

Selon le Gartner, 1,8 millions de postes seront supprimés d’ici 2020 à cause de l’IA… Mais en contrepartie, 2,3 millions de postes seront créés ! Des chiffres qui peuvent paraître assez optimistes, à vérifier sur le long terme. Cependant, il est d’ores et déjà assuré que l’IA engendrera des changements avec des formations et des remises à niveau des personnels en entreprise. Mais la révolution industrielle n’avait-elle pas déjà fortement changé les professions ? Les allumeurs de réverbères, les laitiers ou encore les réveilleurs nous semblent d’une autre époque.

Il faut donc surtout retenir les modifications des postes et non leur suppression, tout en gardant en ligne de mire les améliorations que l’IA peut nous apporter au quotidien, comme par exemple le pré-traitement de documents (par exemple segmentation d’IRM, vérification de la conformité des contrats clients / fournisseurs), tâche chronophage si elle est réalisée manuellement. L’IA permet ainsi aux entreprises d’entrer dans l’ère des « services augmentés ».

Mythe N°4 : « L’IA, c’est Pepper. »

Bien que la science-fiction ait tendance à les confondre, l’IA et les robots sont deux domaines très différents. La plupart des IA ne sont pas visibles (algorithmes, applications, …) et des robots tels que Pepper, ne peuvent pas toujours être qualifiés d’« intelligents ». Loin de là.

Ces domaines peuvent tout de même bénéficier l’un de l’autre :

  • Un robot peut consommer de l’IA : Pepper peut faire de la reconnaissance d’image, utiliser sa tablette pour afficher un jeu utilisant de l’Intelligence Artificielle, …
  • Les robots, grâce à leurs capteurs, sont source de données et peuvent améliorer les modèles d’IA.

Mythe N°5 : « L’IA, c’est du Machine Learning. »

Bien que les définitions et les visions divergent, le Machine Learning doit être vu comme un outil de l’IA, fournissant les algorithmes nécessaires à la création d’intelligence. Alors que l’IA peut être vue comme un concept, le Machine Learning est la brique algorithmique donnant vie à ce concept. L’IA peut donc être créé sans Machine Learning, avec une autre brique algorithmique comme les moteurs de règles. Par exemple, 70% du processus de pilotage automatique d’avion est réalisé par moteurs d’inférence. Cette approche déterministe est nécessaire pour prévenir les utilisateurs, ici les pilotes, lorsqu’un scénario non programmé est rencontré. Cela permet une compréhension de la prise de décisions des algorithmes et empêche la gestion de scénarios inconnus avec l’escalade vers un humain. La distinction est identique pour le Deep Learning, qui est une sous-entité du Machine Learning.

Mythe N°6 : « L’IA, c’est la Data. »

La question de la prépondérance des données ou de l’algorithme est sans cesse débattue et la réponse ne peut pas être binaire. La quantité et la qualité des données qui alimentent un algorithme de Machine Learning ont un impact direct sur la justesse des prédictions, comme le met en avant le directeur de la recherche de Google, Peter Norvig : « Nous n’avons pas de meilleurs algorithmes. Nous avons seulement plus de données » . Cette citation est à nuancer : ajouter de nouveaux paramètres à des données ne va pas toujours améliorer l’algorithme, voire pourrait le dégrader, c’est le principe du fléau de la dimension. La structure des données est donc essentielle.

De plus, une bonne précision ne peut exister qu’avec un algorithme adéquat. Les données sont à l’IA ce que le carburant est à l’automobile. Les données sont nécessaires pour atteindre un objectif (i.e. « quantité »), mais fournir du diesel à une voiture essence ne la fera pas avancer (i.e. « qualité »), et un trajet sur route dégagée sera plus rapide avec une Maserati qu’avec une 2CV (i.e. « algorithme adéquat »). Typiquement, certains algorithmes (tel que le SVD) ne sont pas adaptés aux données à forte dimensionnalité.

Plus généralement, alors que les données sont nécessaires pour l’entraînement de modèles de Machine Learning, l’IA en est moins dépendante car elle peut recourir à des algorithmes déterministes, moins « datavores » ou utiliser des modèles déjà entraînés, comme le GoogleNet.

Mythe N°7 : « L’IA, c’est rapide. »

Certes, il existe de nombreuses APIs permettant d’utiliser directement de l’IA et ainsi d’augmenter les offres, produits et services fournis par une entreprise avec des briques cognitives. Cependant, ces APIs sont souvent propriétaires, engendrent un coût à l’usage, et leur choix nécessite une bonne connaissance du marché. Au contraire, les frameworks open source sont plus longs à intégrer et nécessitent des expertises pointues pour les utiliser, avec les coûts qui en découlent.

De plus, pour avoir des modèles spécialisés pour un certain domaine ou un cas d’usage précis, il faut collecter et analyser des données pertinentes. Ce processus est chronophage et nécessite une connaissance du domaine Métier et des algorithmes. En effet, l’algorithme doit être choisi pour être adapté aux données, puis paramétré convenablement.

Que faut-il en retenir ?

Tout d’abord l’Intelligence Artificielle, ce n’est pas le futur mais bel et bien le présent. Il ne faut pas en avoir peur. L’IA n’a pas vocation à remplacer l’homme, mais plutôt « l’augmenter » en démultipliant ses performances.

Ensuite, bien évidemment, si son utilisation est faite dans un objectif malsain, l’IA sera effrayante, négative voire destructrice. Mais mise entre de bonnes mains, elle est alors porteuse de promesses d’un avenir enthousiasmant. Tout dépend donc de l’objectif initial.

Enfin, il faut comprendre le positionnement central de l’IA : située entre les données et l’algorithmie (ex. le Machine Learning), elle a vocation à rendre les offres et services plus efficaces et ainsi propulser les entreprises dans l’ère des « services augmentés ».

Auteur : onepoint

beyond the obvious