Data Intelligence : le début de l’ère de la compréhension

Vitesse, sécurité, rentabilité, agilité… Les plateformes d’intelligence des données (« les Data Intelligence Platforms ») brisent les silos et transforment la donnée en intelligence stratégique. Saut quantique du « data-driven » vers l’« intelligence-driven ».

Durant une décennie, les entreprises se sont attachées à dépasser les limites des bases de données traditionnelles. Et ce, en brisant les silos hérités des architectures SQL historiques.

Elles disposent aujourd’hui de technologies solides et éprouvées, regroupées sous le terme de « Modern Data Stack ». Aussi, Les grandes plateformes de données, Databricks, Snowflake, Microsoft Fabric ou Google Cloud, proposent désormais des environnements capables de centraliser et traiter de très grands volumes de données.

Pour autant, la valeur métier demeure largement en deçà des attentes. Par exemple, les décideurs accèdent bien à des indicateurs. Ils peinent malgré tout à obtenir une vision actionnable de leur activité. La cause est structurelle. Leurs plateformes de données ne comprennent pas fondamentalement les données au sein de leurs organisations ni leur utilisation.

Les plateformes d’intelligence des données (« Data Intelligence Platforms ») changent la donne grâce à l’IA. Elles saisissent la sémantique des données d’entreprise et les rendent directement exploitables par les métiers. En unifiant gouvernance, analytique avancée, IA générative et automatisation, elles transforment la donnée en agent actif. C’est le principe du « Data as an Agent ». Dorénavant, la donnée anticipe. Elle recommande. Mieux, elle agit.

L’enjeu s’avère donc de taille les entreprises pilotées par les données (« data-driven ») qui sauteront le pas vers l’entreprise piloté par l’intelligence (« intelligence-driven ».) Et cette transition conditionne désormais la performance opérationnelle, la vitesse de décision et la compétitivité.

Le constat : une maturité technique qui cherche ses nouveaux standards

Le marché de la data s’est fortement consolidé ces dernières années. Les hyperscalers, comme AWS, Azure ou Google Cloud, proposent désormais des solutions complètes et intégrées. L’époque du « best-of-breed », où chaque entreprise choisissait ses outils séparément, touche à sa fin.

Aujourd’hui, les organisations adoptent plutôt des écosystèmes complets et intégrés, capables de gérer l’ensemble du cycle de vie de la donnée.

Evoquons, à cet égard, Fivetran, spécialiste de l’intégration de données, et dbt Labs, éditeur de l’outil de transformation dbt, qui ont annoncé leur fusion1.

Cette opération visait à « simplifier la gestion des données d’entreprise grâce à une plateforme unifiée qui alimente l’analyse et l’IA à grande échelle2. » Cependant, certains défis fondamentaux restent encore à relever.

Observabilité et qualité : garantir la fiabilité pour l’IA

Il faut savoir que disposer d’une plateforme intégrée ne suffit pas. La qualité et la compréhension de la donnée, (l’observabilité) s’avère des défis de premier plan. C’est justement pour y répondre que des pratiques comme le Data Mesh3 et les Data Products4 se sont développés.

Le Data Mesh avait vocation à distribuer la gestion des données entre les équipes métiers pour accélérer leur disponibilité.

Les Data Products, ensembles de données fiables et documentés, était en revanche prêts à être exploités par les équipes.

Malgré ces évolutions, la confiance dans la donnée demeure le principal frein à l’adoption de l’IA. Certes, nous avons les pipelines. Mais nous n’avons pas encore les « capteurs » de qualité standardisés.

Divorce Apps vs data : un frein à l’exploitation des données

Dans de nombreuses entreprises, les équipes d’intégration inter-applicative (systèmes transactionnels) et les équipes Analytics travaillent encore en silos.

Ce « divorce » freine considérablement l’exploitation des données. Il constitue le principal goulot d’étranglement pour les entreprises qui cherchent à rendre leurs plateformes data opérationnelles en temps réel.

L’explosion des workloads opérationnels et du temps réel

Les plateformes de données, longtemps cantonnées au traitement différé (« batch processing ») investissent désormais le terrain opérationnel. Pour supporter ses charges de travail, les plateformes intègrent désormais des capacités de stockage haute performance. Il s’agit notamment de bases de données relationnelles SQL capables de monter en charge, par exemple avec PostgreSQL.

Aussi, le défi demeure la rationalisation. Pourquoi dès lors maintenir des systèmes séparés ? La plateforme data est en effet susceptible de servir à la fois le tableau de bord stratégique et l’application client en temps réel.

Ce rapprochement force une refonte des choix d’intégration au sein du système d’information. Et ce, pour amener plus de fluidité entre le cœur métier et l’analyse.

Data Intelligence : rendre la donnée intelligible pour l’IA

Passer de la « Data & AI platform » à la « Data Intelligence Platform » signifie apporter l’intelligence au plus près de la donnée.

L’approche Data as a Product a marqué une étape cruciale pour responsabiliser les domaines métiers et garantir une donnée fiable et packagée.

Avec l’essor de l’IA Générative, le curseur se déplace. Ce que réclament désormais les organisations, ce sont des données qui se comprennent d’elles-mêmes et agissent de manière autonome. Et l’assistant de donnée (« Data as an Agent ») matérialise cette ambition.

Le principe consiste à doter chaque data product d’une interface agentique capable de raisonner, d’interagir et d’agir au sein d’un écosystème d’agents. Autrement dit, transformer la donnée passive en entité conversationnelle. Comment y parvenir ? Trois dimensions structurent cette approche.

L’agent data : votre assistant conversationnel sur les données

L’Agent data dépasse la simple exposition de tables SQL. Il fait entrer la donnée dans le champ du langage. Porté par la connaissance de son domaine, il instaure un dialogue direct avec l’information en langage naturel, sans intermédiaire. Pour le dire simplement, la donnée devient l’interlocuteur de l’utilisateur.

Intelligence native et ontologies : comprendre la donnée pour mieux agir

L’intelligence d’un Agent Data est native à la donnée. Cela signifie qu’elle s’appuie directement sur la signification et le contexte métier des informations. En gros, pour que l’IA comprenne la donnée, celle-ci doit être décrite par des modèles sémantiques riches. On appelle ces derniers, des ontologies. Elles formalisent les notions clés et leurs relations. C’est dans ce cadre que les assistants de données puisent pour interpréter correctement les nuances métier.

Protocoles A2A (Agent-to-Agent) : des protocoles de communication pour l’interopérabilité des agents

Grâce à des standards émergents comme le MCP (Model Context Protocol), ces agents peuvent communiquer entre eux.

Un agent « Ventes » peut interroger un agent Logistique» de manière autonome pour résoudre un problème de livraison. La plateforme agit alors comme le chef d’orchestre de ces interactions.

La sémantique : condition de visibilité pour l’IA

Après avoir mis les données en qualité, il faut les rendre compréhensibles par l’IA. Une donnée non décrite par un modèle sémantique est une donnée invisible pour les agents de demain.

Les nouveaux impératifs : FinOps et éthique de l’IA

Cette nouvelle architecture ne peut advenir sans l’efficience économique, la confiance et l’éthique. Les cabinets comme Gartner et Forrester jugent désormais ces derniers critiques.

L’efficience économique (FinOps AI) : faire de l’IA un levier de valeur maîtrisé

La multiplication des agents d’IA et des appels aux grands modèles de langage (LLM) peut faire exploser les coûts. Chaque requête consomme des ressources de calcul et génère une dépense mesurable. Pour rester soutenable, une Data Intelligence Platform doit intégrer une véritable gouvernance des coûts. Elle doit être en effet d’optimiser chaque usage de l’IA.

Cette approche, le FinOps AI, applique à l’IA les principes de pilotage financier déjà éprouvés dans le cloud. Le principe consiste à exploiter le bon modèle, au bon moment, pour le bon usage. Dans de nombreux cas, des modèles plus petits et spécialisés (SLM) offrent des performances comparables à un coût nettement inférieur. Ils doivent être privilégiés lorsque la complexité de la tâche ne justifie pas le recours à un LLM.

La confiance et l’éthique

En devenant autonome, le « Data Agent » doit être capable de respecter nativement les règles de confidentialité et d’éthique. Cela implique un filtrage automatique des données sensibles et une traçabilité totale (lineage) des décisions prises par l’IA.

La donnée comme système d’intelligence

En fin de compte, passer de la « Data & AI Platform » à la « Data Intelligence Platform » revient à rapprocher l’intelligence de la donnée.

Pour les organisations, la feuille de route s’articule autour de trois axes.

Réunifier intégration applicative et Data

Il s’agit de casser la barrière organisationnelle pour supporter les cas d’usage opérationnels et réduire la latence.

Investir dans le « Semantic Layer »

Ne plus seulement nettoyer la donnée, mais la modéliser pour qu’elle soit compréhensible par une machine.

Adopter l’Agentic Design sous contrôle strict des coûts et de l’éthique

Anticiper des architectures où la donnée est consommée par des agents (via protocoles MCP) plutôt que par de simples requêtes SQL.

Cette approche impose un pilotage strict des coûts (FinOps AI) et des mécanismes de contrôle de l’éthique, de la sécurité et de la traçabilité.


Références

1. « Fivetran and dbt Labs Unite to Set the Standard for Open Data Infrastructure », fivetran.com, October 13, 2025. ↩︎

2. Ibid. ↩︎

3. Christophe Heng, Maria José Lopez, Gontran Pubez, « Le Data Mesh, effet de mode ou véritable outil de transformation de votre business model ? », groupeonepoint.com, 2025. ↩︎

4. Grégory Lecointe, « Obtenir un avantage concurrentiel grâce aux Data Products : 4 leviers d’optimisation clés », groupeonepoint.com, 2025. ↩︎

Auteur

  • Manuel Tang

    Leader expert