1. Le problème lancinant du contexte
Les chatbots sont partout avec Siri, Google Now, Cortana et Alexa. A n’en pas douter leur usage se démocratise dans l’espace domestique où ils bénéficient depuis quelques années des énormes progrès réalisés en reconnaissance de la parole.
Ils nous permettent de simplifier l’exécution de tâches aussi vitales que de baisser l’éclairage du salon, lancer un morceau de musique sur Spotify ou estimer la durée d’un trajet en fonction de l’état du trafic.
Pour l’essentiel cependant, il s’agit là d’usages que l’on peut qualifier de transactionnels dans la mesure où l’utilisateur pose une question ou donne un ordre au système qui ensuite s’exécute. Point à la ligne.
Les choses se gâtent rapidement toutefois lorsqu’on essaie d’engager une conversation un peu plus élaborée. Et, ne nous voilons pas la face, hormis les quelques usages domestiques évoqués, les chatbots sont pour l’instant des créatures qui, au mieux, sont d’une fort ennuyeuse compagnie et, au pire, nous accablent de leur exaspérante stupidité artificielle.