Le Bon Coin s'offre un lac de données dans le cloud pour doper son marketing au big data
Alors qu’il héberge en interne sa plateforme, le site de petites annonces Le Bon Coin a construit son lac de données sur le cloud. Un choix imposé par des contraintes d’agilité et de souplesse, et visant à favoriser les applications d’analyse de données et big data dans le marketing et la vente.
Le Bon Coin a son lac de données (data lake) où sont déversées toutes les données de ses clients. Il dispose aujourd’hui d’un volume de 50 téraoctets, dont 5 téraoctets dans un entrepôt de données exploitable pour des applications d’analytique et big data. Et l’objectif est d’atteindre 100 téraoctets à la fin de 2016.
Première plateforme généraliste de petites annonces en France
Mais contrairement à la plateforme des petites annonces du site, il ne réside pas dans l’informatique traditionnelle interne formée de deux datacenters chez l’hébergeur Equinix, dans la région parisienne. Il est construit plutôt dans le cloud d’Amazon Web Services, sur le site du géant américain de l’infonuage à Dublin, en Irlande. Un choix dicté par des contraintes d’agilité et de flexibilité.
Avec plus de 26 millions de petites annonces disponibles, Le Bon Coin revendique le titre de première plateforme généraliste de petites annonces en France. Elle enregistre 800 000 à 1,2 million de nouvelles petites annonces par jour et traite 2000 recherches par seconde. La société, filiale du groupe norvégien Schibsted, compte un effectif de 400 personnes à Paris, où se trouve son siège, et affiche un chiffre d’affaires de plus de 180 millions d’euros en 2015, en progression de 20%.
Un gisement de données peu exploité jusqu'ici
Le site dispose d’un gisement inestimable d’informations sur les clients peu exploité jusqu’ici. "Nous touchons aujourd’hui deux Français sur trois et l’ambition est de toucher tous les Français dans 5 ans, confie Aissa Belaid, directeur data chez Le Bon Coin. Nous en couvrons toutes les étapes de vie. Nous savons quand ils déménagent, quand ils changent d’emploi, quand ils achètent une nouvelle voiture, etc. Depuis 2015, nous conservons ces informations de façon anonymisée avec le projet d’en tirer de la valeur. Plus le réservoir sera important, et plus les applications d’analyse de données seront pertinentes."
Pourquoi le cloud s'est imposé pour stocker ces données ? "Nous ne savons pas de combien le volume va augmenter et à quel rythme, justifie Aissa Belaid. Nous ne pouvons pas prévoir de combien de serveurs nous aurons besoin. Et puis nous voulons nous affranchir de ces questions d’infrastructure pour nous concentrer sur notre métier : la data et la meilleure façon d’en tirer de la valeur pour nos équipes de marketing et vente."
20 personnes mobilisées sur la data
Le lac de données combine trois services de stockage d’Amazon Web Services et un logiciel open source (Apache Parket) qui accélère l’accès aux données. Une équipe de 20 personnes, sur un total de 100 en informatique, est mobilisée sur la data. Elle prépare les données pour les analyser, développe des algorithmes au Machine learning, crée des tableaux de bord et accompagne les équipes marketing et vente dans les usages. "En un an, on a complètement changé la donne, se vante Aissa Belaid. On ne parle plus d’archivage de données. On parle maintenant de conservation de données. Notre objectif est d’être plus pertinent dans nos propositions de valeur aux clients professionnels, qui paient l’insertion de leurs petites annonces, contrairement au grand public qui ne paie rien."
En s’appuyant sur l’analyse de données, les chargés de grands comptes pourront mieux rendre compte des résultats des options choisies pour la visibilité des annonces et conseiller les meilleures stratégies à adopter. "Nous le faisions jusqu’ici d’une façon artisanale, note Aissa Belaid. Maintenant, nous pouvons le faire de façon plus structurée et plus efficace. Nous pourrons demain créer des services comme proposer au recruteur les candidats les mieux adaptés à ses besoins. »
Remise en cause du modèle d'infrastructure en perspective
Cette expérience pourrait remettre en cause les convictions des responsables de l’infrastructure informatique, attachés jusqu’ici à une solution traditionnelle en interne. Ils s’interrogent si demain, quand les deux datacenters de la plateforme auront été amortis, n’ont pas intérêt à migrer, eux aussi, vers le cloud.
SUR LE MÊME SUJET
Le Bon Coin s'offre un lac de données dans le cloud pour doper son marketing au big data
Tous les champs sont obligatoires
0Commentaire
Réagir