L’art difficile de la conversation artificielle

Concevoir des agents conversationnels en mesure de soutenir une conversation qui ne se résume pas à une simple succession de question-réponses reste aujourd’hui un défi. Dans cet article nous décrivons différentes options disponibles pour essayer de le relever. L’apprentissage supervisé, l’apprentissage par renforcement et les réseaux de neurones récurrents en sont les principaux ingrédients. Limiter le nombre d’exemples d’entraînement est un autre enjeu de taille. Sur ce sujet, nous présentons deux travaux de recherche récents. Le premier exploite l’apprentissage par renforcement ainsi qu’un simulateur d’utilisateur. Le second utilise une approche hybride qui intègre machine learning et code métier.

1. Le problème lancinant du contexte

Les chatbots sont partout avec Siri, Google Now, Cortana et Alexa. A n’en pas douter leur usage se démocratise dans l’espace domestique où ils bénéficient depuis quelques années des énormes progrès réalisés en reconnaissance de la parole.

Ils nous permettent de simplifier l’exécution de tâches aussi vitales que de baisser l’éclairage du salon, lancer un morceau de musique sur Spotify ou estimer la durée d’un trajet en fonction de l’état du trafic.

Pour l’essentiel cependant, il s’agit là d’usages que l’on peut qualifier de transactionnels dans la mesure où l’utilisateur pose une question ou donne un ordre au système qui ensuite s’exécute. Point à la ligne.

Les choses se gâtent rapidement toutefois lorsqu’on essaie d’engager une conversation un peu plus élaborée. Et, ne nous voilons pas la face, hormis les quelques usages domestiques évoqués, les chatbots sont pour l’instant des créatures qui, au mieux, sont d’une fort ennuyeuse compagnie et, au pire, nous accablent de leur exaspérante stupidité artificielle.

Auteur : Pirmin Lemberger

Directeur scientifique