23 octobre 2019

10min

L’IA pour les banques et assurances

Une vision partielle des intérêts et des appréhensions ne permettent pas de tirer réellement partie de l’intelligence artificielle. Pierre-Adrien Roy, consultant onepoint, présente les 5 principaux bénéfices de la maitrise de la notion d’intelligence artificielle dans sa complexité.

Beaucoup parlent d’intelligence artificielle, mais peu savent de quoi il en retourne réellement. En cause, une double confusion :

  • Une vision du réel influencée par un imaginaire fortement imprégné par les films de science-fiction. Cette vision fantasmée d’un avenir plus ou moins proche, où le statut de l’humanité basculerait suite à une prise de conscience des machines devenues autonomes, génère des appréhensions pour certaines infondées
  • Une vision partielle de l’IA trop souvent réduite au seul deep learning / machine learning excluant ainsi un pan entier de l’IA. Bien que moins glamour, il existe tout un pan de l’IA qui a d’ores et déjà fait ses preuves et répond de manière précise à un certain nombre de problématiques rencontrées par les banques et les assureurs

Les représentations influençant nécessairement l’action, il est essentiel pour les banques et les assureurs de maîtriser la notion d’intelligence artificielle dans sa complexité.

Ils pourront en tirer 5 principaux bénéfices :

  1. Ouvrir le champ des possibles
  2. Commencer dès aujourd’hui à tirer parti de l’IA
  3. Prendre des décisions en toute connaissance de cause
  4. Accompagner les employés dans la transformation de leur métier
  5. Développer une culture du numérique au sein de l’entreprise

Derrière les nombreuses applications de l’IA, 2 approches complémentaires

Ces bénéfices sont envisagés à partir des 2 approches complémentaires permettant d’appréhender de l’IA :

  • L’approche probabiliste qui met l’accent sur les capacités d’évaluation propres du système, capable de faire émerger des solutions après avoir analysé un nombre important de données (ex. analyse prédictive, reconnaissance vocale et faciale, recherche intelligente, etc.
  • L’approche symbolique qui consiste à automatiser le savoir-faire d’ores et déjà existant dans l’entreprise, en reproduisant les raisonnements d’experts métier qui ont été mis sous la forme de « process rules » (ex. automatisation des processus métier, génération de texte en langage naturel, etc.). Cette approche est fondée sur le déterminisme et non sur le probabilisme.

Bénéfice n°1 – Ouvrir le champ des possibles

Les progrès historiques observés ces dernières années dans les domaines du deep learning (approche probabiliste) ont largement contribué au regain d’intérêt pour l’IA sur le plan académique et industriel. L’approche symbolique (systèmes experts, systèmes de règles) n’a en revanche pas connu de progrès significatifs. Cela explique probablement pourquoi elle est moins mise sous le feu des projecteurs, alors même qu’elle peut s’avérer utile dans un certain nombre de contextes, à l’instar des contextes réglementaires.

D’où l’importance pour les banques et les assureurs d’avoir pleinement conscience que les approches probabiliste et symbolique sont 2 approches complémentaires de l’IA qui sont chacune adaptées à différents types de problèmes.

  • Problèmes pour lesquels l’approche probabiliste est adaptée : l’approche probabiliste permet de faire des prédictions dans des contextes par nature incertains. La qualité de la prédiction dépend pour partie du volume et de la qualité des données disponibles afin d’entraîner le système.
  • Problèmes pour lesquels l’approche symbolique est adaptée : l’approche symbolique est particulièrement adaptée pour les domaines de précision ne tolérant pas d’incertitude quant au résultat tels que la règlementation ou la médecine. Cette approche requiert de disposer d’experts avec une connaissance solide leur permettant de déterminer et de tester régulièrement les règles ainsi que de les mettre à jour.

Bénéfice n°2 – Commencer dès aujourd’hui à tirer parti de l’IA

L’IA est souvent associée à des projets d’envergure avec un ROI à long terme ou bien un ROI difficilement estimable, ce qui peut conduire certains acteurs à reporter leurs projets relatifs à l’intelligence artificielle.

Cet a priori est démenti par un certain nombre de solutions d’ores et déjà opérationnelles permettant d’atteindre un ROI à court terme. Il s’agit de l’un des messages clés qu’a tenu à partager Alain Kaeser, le Président d’YSEOP (éditeur en Intelligence Artificielle), lors de la conférence de Mines Paris Tech du 19.10.2017 intitulée « Intelligence Artificielle : c’est déjà bien réel ! ».

Dernier exemple en date, la presse évoquait récemment la mise à disposition par Natixis assurance d’un chatbot auprès de ses chargés de relation client afin de faciliter leurs recherches documentaires (solution relevant de l’approche symbolique).

L’objectif poursuivi est d’apporter une réponse rapide aux problématiques juridiques pointues rencontrées par les clients, par exemple dans le domaine de la succession. Après seulement 2 mois d’apprentissage, les résultats sont probants : le bot a permis de réduire de 40% en moyenne le temps de réponse lors des 2 jours d’observation tout en sécurisant la qualité de la réponse apportée comme le ferait un expert. Confortée par ces résultats, Natixis assurance a décidé de déployer la solution auprès de ses Centres d’Expertise et de Relation Client. Depuis, les fonctionnalités de l’outil ont été enrichies avec par exemple la capacité du système à proposer automatiquement des mails préfigurés à destination du client, mentionnant par exemple les pièces justificatives nécessaires dans un cas donné.

Bénéfice n°3 – Prendre des décisions en toute connaissance de cause

Pour pouvoir pleinement tirer parti de l’intelligence artificielle, les banques et les assureurs doivent avoir conscience des limites respectives des différentes approches rappelées plus haut.
Les résultats de l’enquête du site américain Stats News sur l’application d’IBM Watson dans le domaine de la santé (sur l’analyse des données médicales et l’analyse des corpus d’articles de recherche sur le cancer) illustrent les limites auxquelles l’approche probabiliste peut être confrontée. Bien que jugé très prometteur, plusieurs imperfections ont été recensées par certains professionnels de santé interrogés dans le cadre de l’enquête :

  • Un manque de fiabilité de l’IA :
    • Watson n’aurait pas contribué à créer de nouvelles connaissances sur le cancer. Pire : Watson rencontrerait des difficultés à s’adapter aux connaissances nouvelles. En cause, une grille d’analyse des contenus qui conduirait le système à établir des recommandations sur la base de nombreuses données plutôt que sur la base des données les plus récentes
    • Dans le cas des cancers les plus courants, Watson fait des préconisations de soins généralement identiques à celles recommandées par les médecins, mais cela n’est pas toujours le cas. Surtout, la complexité ne porte pas tant sur la première recommandation d’un scénario clinique que sur les suivantes, notamment dans le cas des traitements secondaires suite à l’échec d’une première préconisation. Dans ces cas, Watson a bien plus de difficulté à proposer une préconisation, de même que les médecins dont le consensus est moins marqué. Les oncologues d’un hôpital du Danemark ont ainsi fait le choix d’abandonner le projet après avoir observé qu’ils ne partageaient les préconisations de Watson que dans 33% des cas
    • Si Watson appuie ses recommandations notamment sur des études, il n’explique pas pour quelle raison, ni comment il est amené à proposer un traitement particulier à un patient particulier
  • Un biais résultant du tropisme américain de l’outil : Watson privilégie les études et les recommandations des établissements américains, sans autoriser les établissements étrangers à y apporter des rectifications par exemple sur les doses plus faibles de médicaments recommandées pour minimiser les effets secondaires

Cet exemple met en exergue le risque de biais, qui n’est cependant pas inhérent à toute approche probabiliste. Le biais peut résulter :

  • d’un algorithme avec des biais statistiques, le « biais statistique » désignant une caractéristique d’un algorithme qui fournit une prédiction systématiquement erronée de certaines caractéristiques d’une population ou d’un historique d’évènements ;
  • d’un jeu de données marqué par certains présupposés idéologiques. Par exemple, un système d’aide aux décisions d’incarcération, qui reposerait sur un historique d’arrestations, risquerait de reproduire les biais inscrits dans le jeu de données comme par exemple des comportements xénophobes commis par une part minoritaire des forces de l’ordre.

Cet exemple soulève également la complexité qu’il peut parfois à y avoir à justifier les préconisations issues du machine learning. Le machine learning n’effectue en effet aucun raisonnement, il apprend à partir d’un volume important de données lui permettant de détecter des signaux faibles pour parvenir à une prédiction. A l’heure actuelle, le machine learning ne peut pas faire preuve d’introspection, impossible donc de l’interroger sur son propre fonctionnement. Il existe néanmoins des solutions techniques permettant d’apporter des éléments d’explication de la prédiction de l’algorithme et ainsi de renforcer la confiance du décisionnaire.

A noter par ailleurs, les performances de Watson dans le domaine de la santé données en exemple ne sont pas nécessairement représentatives de la performance globale de Watson pour d’autres utilisations. Certains assureurs qui l’expérimentent jugent les premiers résultats probants, à l’instar de Generali qui est satisfaite de la contribution de Watson au traitement de ses contrats non réglés en assurance vie. Watson vient alors accompagner l’humain dans le cadre d’un processus de gestion (la recherche de bénéficiaires), l’humain gardant toujours la main sur le versement des règlements (après avoir vérifié que la personne retrouvée correspond bien au client). Comme le rappelle, Delphine Bigot, responsable de la gestion des contrats d’assurance vie non réglés, « Watson ne fait pas le travail à la place du collaborateur, il l’assiste dans ses choix, l’aide à s’orienter dans son enquête. »

Bénéfice n°4 – Accompagner les employés dans la transformation de leur métier

L’influence des films de science-fiction sur notre conception de l’intelligence artificielle peut générer des craintes pour certaines infondées, qui constituent autant de freins au changement. Au-delà de cette confusion des genres entre science-fiction et réalité, certaines craintes sont légitimes et font l’objet d’études prospectives sérieuses. L’OCDE estime par exemple à 9% la part des emplois en France qui pourraient être automatisés. Ce chiffre pourrait même atteindre 40% pour les personnes n’ayant pas fait d’études supérieures.

Dans ce contexte, tout l’enjeu est d’anticiper l’impact de ces évolutions sur les compétences et d’accompagner les employés dans une transformation de leur métier vers des tâches à plus forte valeur ajoutée, avec une montée en compétence à organiser. Au-delà, pour lever ces craintes, les banques et les assureurs devront également réussir à faire prendre conscience à leurs collaborateurs que l’intelligence artificielle ne vient pas se substituer à l’humain, mais vient l’assister.
L’humain a en effet un rôle important à jouer dans l’approche symbolique, dans la mesure où il permet au système d’acquérir les savoir-faire métier existant dans l’entreprise. Si la machine est capable de progresser en autonomie sur le jeu de go, la machine ne peut pas acquérir seule les fondamentaux métier permettant de faire des recommandations pertinentes.

En ce sens, certains chercheurs préfèrent parler d’informatique avancée plutôt que d’intelligence artificielle. Pour reprendre l’exemple du bot documentaire utilisé par les chargés de relation client de Natixis assurance, l’équipe projet a constitué lors de la phase d’apprentissage un corpus regroupant les questions client les plus posées par mail et par téléphone. Lorsque le bot rencontre un sujet sur lequel il ne sait pas répondre, il s’améliore grâce aux retours des collaborateurs.

L’humain a également un rôle à jouer dans l’approche probabiliste. Pour reprendre l’exemple de l’application de Watson dans le domaine de la santé, Pascal Gené, directeur des ventes d’IBM Watson Health en France, rappelle dans une interview donnée au site ticpharma que « « L’IA peut se tromper » et [que] le « sens clinique » du médecin devra toujours « rester au-dessus de tous ces systèmes » afin d’en « assumer la synthèse » et de veiller au respect de l’éthique ».
Dans un tout autre domaine, celui de la comptabilité, l’analyse prédictive peut faciliter grandement la réalisation d’analyses financières et la rédaction des rapports associés dans des temps records. Cependant, là encore, la place de l’humain n’est pas effacée. La valeur ajoutée du contrôleur de gestion réside dès lors dans sa capacité à faire preuve d’esprit critique et à donner du sens aux chiffres avec des éléments explicatifs dont la machine n’a pas connaissance (en faisant par exemple le lien entre l’évolution des ventes et une campagne marketing conduite récemment).

Bénéfice n°5 – Développer une culture du numérique au sein de l’entreprise

L’acquisition d’une bonne maîtrise de la notion d’intelligence artificielle contribue au développement d’une culture du numérique, et plus largement d’une culture de l’innovation, au sein des banques et des assureurs. Le développement d’une culture numérique repose davantage sur les hommes et sur l’acquisition d’un vocabulaire commun que sur la mise en place de nouveaux outils. En ce sens, il est important pour les banques et pour les assureurs de diffuser au sein de leur entreprise quelques grandes idées permettant de bien comprendre ce qu’est l’intelligence artificielle, ce qu’elle n’est pas et surtout le rôle que l’humain peut y jouer. Sans transformation profonde de leur culture, les banques et les assureurs ne pourront pas pleinement tirer parti des opportunité offertes par l’IA.

Pierre-Adrien Roy

Consultant Banque et Assurance