Deep Transfer Learning
L’année 2018 a été particulièrement faste en ce qui concerne les progrès en traitement du langage naturel. Pour la première fois certains modèles dépassent même les performances humaines sur des problèmes réputés difficiles comme la capacité à répondre à des questions suite à la lecture d’un texte. Ces progrès reposent d’une part sur de nouvelles architectures de réseaux de neurones et d’autre part sur deux grandes classes d’idées : l’idée de modèle de langage et l’idée de transfert d’apprentissage bien connue en vision artificielle. L’objectif de cet article est de présenter trois de ces méthodes : ULMFiT, ELMo et BERT. Pour notre présentation nous nous appuierons essentiellement sur des schémas d’architectures simplifiés.