Recevez chaque jour toute l'actualité du numérique

x

"La recommandation produit génère 2 à 3% de notre chiffre d’affaires", Romain Marret (Sarenza)

Entretien Initiée en 2015, la stratégie data de Sarenza porte ses fruits. Amélioration de la prévision des retours produits, pricing dynamique, recommandation produit... Romain Marret, Responsable Data et Architecte Big Data de Monoprix Online, en charge de la marque Sarenza, nous en détaille les principaux succès.
Twitter Facebook Linkedin Flipboard Email
×

La recommandation produit génère 2 à 3% de notre chiffre d’affaires, Romain Marret (Sarenza)
"La recommandation produit génère 2 à 3% de notre chiffre d’affaires", Romain Marret (Sarenza) © Sarenza

L'Usine Digitale : Quel est l’historique de la stratégie data de Sarenza ?
Romain Marret :
Je suis arrivé chez Sarenza mi-2015. Nous avons alors mis en place le data lake de l’entreprise et avons monté une équipe engineering au sein de la DSI et une équipe data science au sein de la direction administrative et financière. Nous étions alors sur des technologies Hadoop. Au bout de 18 mois, nous avons fusionné ces deux équipes pour améliorer notre réactivité dans la production de cas d’usage.

Ensuite, nous avons retravaillé notre plateforme technique pour réaliser une migration vers le cloud. Nous avons dans un premier temps validé la viabilité de cette migration. Puis, à partir de la fin 2018, nous avons réalisé le gros de la bascule. Cela nous a pris entre six et neuf mois.

Comment se positionne l’équipe data dont vous avez la responsabilité au sein de Sarenza ?
Mon équipe est transverse, elle s’adresse à tous les métiers de l’entreprise. Nous avons en effet adopté, chez Sarenza, une organisation décentralisée de l’activité data. Au sein des équipes opérationnelles qui en ont besoin, des data analysts ont été recrutés. Ils sont spécialisés sur un point particulier de l’activité, le CRM par exemple. Pour atteindre leurs objectifs, ils utilisent les compétences, les outils et le support de mon équipe. Le but est qu’ils soient le plus autonomes possible.

Quelles sont vos principales missions ?
La première de nos missions consiste à accompagner l’entreprise dans sa dimension "data driven". Cela passe par la mise à disposition de données et d’outils – une plateforme BI et un datalake – auxquels les analystes data de l’entreprise peuvent accéder. Notre rôle est également de diffuser une culture autour de la connaissance de ces données et de ce qu’on peut en faire.

La deuxième de nos missions tourne autour de l’expertise data. Nous sommes une équipe technique, avec des compétences à la fois décisionnelles (BI), de data engineering (développement applicatif sur les chaînes de traitement de la donnée) et de data science. Dans ce cadre, nous développons des applications, des produits de données, qui servent un usage précis, et nous apportons du support aux différentes équipes, par du coaching ou de la formation.

La troisième mission est d’apporter, grâce à la data science, de la valeur ajoutée aux services développés. Notre rôle n’est pas uniquement basé sur l’analytique, qui permet de piloter l’entreprise au quotidien. Par exemple, en analysant et en croisant les achats des clients et leur navigation sur le site, nous arrivons à créer des recommandations produits pertinentes. Dans cet exemple, notre rôle est de proposer des approches innovantes pour tirer parti de la valeur de la donnée disponible, dans une optique "business".

Dans le cadre du support que vous apportez aux équipes, quelle est la place de la formation ?
Chaque année, nous organisons une data university. Cela permet d’animer le transfert de connaissances vers les équipes. Sur 2018/2019, une vingtaine de sessions de formation ont eu lieu, beaucoup moins en 2020 en raison de la crise sanitaire. Ces formations portent sur la connaissance des données, sur les langages SQL, sur l’utilisation de notre plateforme technique mais aussi sur des thématiques plus avancées comme l’analyse descriptive, les statistiques ou le machine learning. Le but est de faire progresser l’ensemble des data analysts.

Nous organisons aussi des retours d’expérience avec des collaborateurs côté métiers. Ils viennent partager un cas d’usage avec les autres services. L’objectif est de créer une communauté et de démocratiser l’accès à la donnée.

Quelles sont les caractéristiques de votre plateforme data ?
Nous disposons d’une plateforme utilisant les technologies Google Cloud Platform. Nous avons un peu moins de 90 tera de données disponibles, pour environ 430 tera de données analysées chaque mois, ce qui représente 220 millions de lignes traitées chaque jour. Le cloud nous apporte une élasticité très intéressante pour nos cas d’usage car nous mettons à jour nos données quotidiennement.

Le coût mensuel, pour la plateforme en elle-même et la production, est de 6 000 euros. Viennent ensuite s’ajouter quelques coûts en fonction des usages des équipes. Nous avons réussi à obtenir ce prix très compétitif grâce à un certain nombre d’optimisations qui tiennent compte des spécificités de Google Cloud Platform. Google propose en effet des machines "préemptibles", dont la disponibilité est garantie pendant 24 heures mais pas au-delà. Comme nous ne les utilisons que quelques heures par jour, cela ne nous dérange pas. Leur coût est de l’ordre du tiers de celui des machines normales.

Quels sont les bénéfices concrets de votre stratégie data ?
Les bénéfices sont multiples. Le premier succès que nous pouvons mettre en avant est l’amélioration de la prévision des retours de nos produits. La promesse de Sarenza est en effet de permettre le retour gratuit de ses produits pendant 100 jours. Notre taux de retour est donc relativement élevé, comme tous les e-commerçants dans le prêt-à-porter. Cela a un impact assez fort pour l’entreprise. Nous avons mis en place un algorithme de machine learning pour prévoir ces retours. Cela sert deux usages. Le premier est lié au contrôle de gestion. Nous devons en effet réaliser des provisions comptables tant que les 100 jours ne sont pas écoulés. Le rythme est celui de la clôture mensuelle. Le deuxième est lié aux équipes commerce, afin qu’elles puissent piloter leur activité. Le rythme est quotidien.

En fonction des opérations commerciales que nous menons, les taux de retour peuvent être différents. Par exemple, si nous organisons une opération "palier" de type "5% de réduction au-delà de 80 euros d’achats", les consommateurs peuvent être tentés d’acheter une deuxième paire de chaussures pour obtenir leur réduction. Mais cette deuxième paire a plus de chances d’être retournée que la première. Les équipes commerce sont très intéressées par une prévision fine de ces taux de retours. Grâce à notre stratégie data, nous sommes parvenus à diminuer à moins de 2% le taux d’erreur sur nos prévisions de taux de retours. Cette précision, à 2% près, est basée sur l’historique des retours clients et sur 18 caractéristiques clients / produits.

En matière de détection de la fraude, avez-vous amélioré vos résultats également ?
Oui, grâce à un algorithme de machine learning que nous avons mis en œuvre, à la place d’un moteur de règles, nous avons fait passer le niveau de certification manuelle de 8% à 2%, sans augmenter la fraude résiduelle, c’est-à-dire les impayés. Dans notre processus de détection de la fraude, que nous appelons la certification, une qualification automatique de toutes les commandes est assurée par un algorithme. Quand ce dernier détecte une commande qui lui semble frauduleuse, c’est un humain qui prend le relais, pour l’accepter ou la refuser. C’est ce que nous appelons la certification manuelle.

Les gains de ce projet sont de deux ordres : nous diminuons notre besoin de qualification manuelle des commandes et nous augmentons la satisfaction client. En effet, la certification manuelle allonge les délais et, quand elle se met en place, nous ne sommes plus en mesure de respecter notre engagement d’expédition des produits en 24 heures. Cet algorithme est basé sur 30 caractéristiques clients / produits.

Quels autres projets avez-vous menés et quels ont été les résultats ?
Nous avons également mis en place un pricing dynamique pour faire légèrement varier le prix des produits, hors soldes et grosses démarques. Ce prix est ajusté tous les jours, sur la base de la courbe d’écoulement des produits. L’objectif est d’arriver aux soldes avec un stock raisonnable mais pas trop de stock non plus car, bien entendu, les soldes représentent pour nous des pertes de marge. Si nous pouvons vendre le maximum de nos produits en période normale, en faisant légèrement varier leur prix, nous parvenons à maximiser le chiffre d’affaires et la marge tout au long de la saison.

Enfin, dernier projet : la recommandation produit. Les algorithmes que nous avons créés nous ont permis, sur l’année 2019, de réaliser entre 2 et 3% d’incrément de chiffre d’affaires grâce aux recommandations produit. Sur chaque fiche produit Sarenza, 12 produits similaires sont recommandés. Même s’ils cannibalisent d’autres modes de navigation sur le site, ils permettent de diminuer le temps que passe un client à trouver le bon produit, donc d’augmenter le taux de conversion et par conséquent le chiffre d’affaires.

Quels enseignements tirez-vous de ces cinq années consacrées à la data ?
Parmi les apprentissages que nous tirons de ces cinq années, il y a le moment où nous avons regroupé les équipes data science et data engineering. Cela nous a permis d’être beaucoup plus efficaces dans notre façon de travailler. Tant que vous êtes sur de petits effectifs, il est préférable de fusionner ces deux équipes. Si elles grossissent par la suite, il alors temps de réfléchir à les séparer.

Je précise également que nous ne dépendons pas de la DSI. Quand on travaille sur des services comme la recommandation ou la détection de fraude, l’enjeu business est très important. Il faut donc mettre les data scientists en contact avec les équipes métier, cela apporte de la valeur.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media