Danone construit minutieusement un écosystème data unifié avec Databricks
Si Danone n'avait pas eu d'héritage Databricks, aurait-il fait le choix d'intégrer certaines solutions de son catalogue ? A en croire Jean Calvin Kuemkong, directeur des opérations data et analytics chez Danone, c'est probable. Facilité d'utilisation, capacités techniques plus adaptées et automatisation sont autant de critères qui ont fait pencher la balance. Retour sur un chantier de taille pour construire un data lake unifié et mettre la data au service de l'IA.
À l’occasion du Data Intelligence Day qui se tenait à Paris, Databricks, spécialiste du data lakehouse, a invité quelques clients afin de témoigner de leurs usages de sa plateforme. L’un d’entre eux n’est autre que l’industriel français Danone. 89 000 personnes réparties dans 55 pays, des produits présents dans 120 pays, Danone peut se targuer d’être établi aux quatre coins du globe.
Mais cela ne va pas sans quelques difficultés : "Quand je suis arrivé chez Danone il y a deux ans, nous avions déjà réalisé la migration du on-premise vers le cloud, nous rencontrions un certain nombre de problèmes, notamment le time to value, des problèmes de niveau de service, et bien évidemment, un problème de ROI, la plateforme coûtant de plus en plus cher, il fallait démontrer d'une certaine manière que ça valait le coup de continuer à investir dessus", constate Jean Calvin Kuemkong, directeur des opérations data et analytics chez Danone.
Une trentaine de clusters en héritage
Avant de construire un espace unique pour collecter les données, Danone possédait en effet des équipes IT et data locales qui répondent aux besoins des utilisateurs locaux. Une stratégie qui a conduit à la création d’une trentaine de clusters de pays qui servent différents business à la fois sur la data et l'IA.
"Laisser chaque pays construire sa propre plateforme c’est, lors d’un incident, devoir comprendre chaque spécificité du pays. D'un point de vue local, cela ne pose pas de problème puisque cela amène à la création de cas d’usage pour les équipes locales. Mais quand j'essaie de consolider les données au niveau de l'Amérique du Nord, par exemple, je commence à avoir des problèmes", poursuit Jean Calvin Kuemkong.
Un besoin d’unifier le système de collecte de données
Face à une telle diversité d’environnements coûtant relativement cher, l’objectif a donc été de construire une plateforme unique en s’appuyant à la fois sur Databricks et Microsoft. Une initiative qui "permet de collecter les métadonnées, d'être capable d'alimenter notre outil de gouvernance - Unity - et de donner de la visibilité aux utilisateurs. Demain, avec notre catalogue, nous sommes capables de découvrir rapidement ce qui a été collecté et de demander un accès à ces données".
A la question de savoir pourquoi ces partenaires technologiques plutôt que d'autres, Jean Calvin Kuemkong nous répond : "Nous sommes sur une offre PaaS Azure, ce qui est beaucoup plus simple par rapport à Snowflake. D'autres critères font partie de l'équation : la question d'automatisation notamment, mais aussi les capacités techniques différentes donc plus adaptées chez Databricks - notamment d'un point de vue distribution et collecte de données". Enfin, "dans un écosystème Azure, il est beaucoup plus simple de faire du Spark", concède-t-il.
La standardisation, étape clé
En parallèle, Danone s’est concentré sur un autre point : la standardisation. "Construire une plateforme c'est bien, mais responsabiliser le business c'est encore mieux. L'idée c'est que chacun paye pour ce qu'il fait sur la plateforme". Les équipes de Jean Calvin Kuemkong ont donc mis en place des environnements spécifiques, dans lesquels on retrouve des solutions Databricks, ce qui permet de faire du data sharing et de récupérer les données beaucoup plus facilement. "Nous sommes en train de faire passer les cas d’usage les plus consommateurs sur cette plateforme qui est beaucoup plus centralisée", ajoute-t-il.
Des gains de temps et trésorerie
Danonce a entrepris un chantier de modernisation de son infrastructure en faisant le pari de s’appuyer largement sur la Data Intelligence Platform de Databricks. Toujours en cours, cette transformation doit donner naissance à OneSource 2.0, une base évolutive et pérenne conçue pour optimiser les services basés sur les données et l’IA.
Plusieurs bénéfices ont d’ores et déjà été identifiés avec OneSource 2.0 : réduire jusqu’à 30% le temps nécessaire entre l’analyse des données et la prise de décision, une productivité accrue et une diminution attendue des coûts d’exploitation. Le délai de traitement des pipelines d’ingestion de données devrait ainsi passer d’environ 2 semaines à 1 jour.
L'IA n'est rien sans la data
En matière d’intelligence artificielle, le géant de l’agroalimentaire n’est par ailleurs pas en reste. Partant du principe qu'"il y a besoin de la data pour délivrer l'IA", Danone a décidé de s’appuyer sur Unity Catalog ainsi que sur AI/BI Genie pour donner toutes les clés aux équipes métier afin afin d’interagir avec leurs données en langage naturel ; un chatbot "Talk to Your Data" est en cours de développement. Cet outil doit faciliter l’exploration et l’analyse des données, tout en réduisant la dépendance des utilisateurs non techniques aux équipes IT.
Enfin, avec les solutions Databricks, Danone mise sur une gouvernance robuste des données : l’automatisation de la validation et du nettoyage des données devrait améliorer leur précision jusqu’à 95%, garantissant des informations traçables et sans erreur. Avec cette nouvelle plateforme, Jean Calvin Kuemkong estime ainsi qu'il sera plus facile pour les équipes techniques "de gouverner à la fois les assets data et IA au même endroit."
SUR LE MÊME SUJET
Danone construit minutieusement un écosystème data unifié avec Databricks
Tous les champs sont obligatoires
0Commentaire
Réagir