Recevez chaque jour toute l'actualité du numérique

x

De l'usine autonome à l'usine adaptable : les apports d'un Data Fabric dans le secteur industriel

Tribune Collecte et analyse des données pour en tirer conclusions et action ; voici le triptyque sur lequel se fondent les systèmes d’apprentissage automatique. Leurs algorithmes de fonctionnement sont élaborés et améliorés par un processus d'apprentissage fondé sur la méthode des essais et erreurs, leur permettant d’effectuer des modifications et d’en surveiller simultanément les résultats. Pour l'industrie, ces systèmes constituent la base du passage d’un processus de fabrication automatisée autonome à celui d’une production adaptable. Mais dans la pratique, les industries manufacturières sont confrontées à un dilemme qui découle des exigences du cycle des données.
Twitter Facebook Linkedin Flipboard Email
×

De l'usine autonome à l'usine adaptable : les apports d'un Data Fabric dans le secteur industriel
De l'usine autonome à l'usine adaptable : les apports d'un Data Fabric dans le secteur industriel

Toutes les entreprises industrielles sont aujourd’hui confrontées à des sources de données très hétérogènes. Pourtant il est clair que bénéficier d’un accès uniforme à ces différentes sources est la clé qui permettra à l’usine de faire preuve d’une grande adaptabilité. Les données, et tout particulièrement celles du secteur industriel, ont un potentiel considérable pour créer des avantages compétitifs durables sous l’effet d’un maillage de connexion de type Data Fabric, ou "tissu de données".

Pour ce faire, l'entreprise doit modéliser numériquement la logique et les ressources de production afin de corréler les paramètres du processus et les paramètres de qualité. Cela aura pour effet de générer des modèles de données permettant un contrôle et une optimisation continus de la production. Dans la manufacture par exemple, les processus de Machine Learning sont capables de mesurer la qualité de la surface d'une pièce en phase de production, donnant aux algorithmes les informations nécessaires pour fournir des recommandations ou déclencher des actions automatiques telles que la mise à l’écart de la pièce, un réajustement des étapes de production suivantes ou l'optimisation du processus de fraisage.

Pourquoi élaborer un cycle des données entre les sites de production et les plateformes centralisées
La qualité des modèles de données dépend largement de la quantité et de la qualité des éléments d'apprentissage. Un technicien de maintenance peut mettre des années à connaître le comportement exact d'une seule fraiseuse afin de pouvoir identifier ou éviter un dysfonctionnement à un stade précis. Si l'on pouvait agréger l'expérience de centaines de techniciens acquise sur des milliers de fraiseuses similaires, la phase d'apprentissage de leurs nouveaux collègues pourrait être réduit à des semaines voire à quelques jours.

C'est exactement ce qui se produit lorsque sont collectées des données de machines similaires ou d'étapes de production provenant de différents endroits et qu’elles sont introduites dans un modèle de données auto-apprenant : plus les données disponibles sont pertinentes, plus l'effet d'apprentissage sera rapide et efficace. C'est ce qu'on appelle l'effet de réseau de données. Pour rester dans l'exemple de l'usinage, les données directement impliquées dans le processus de fabrication ne sont pas les seules à être pertinentes pour l'apprentissage du modèle. Il faut non seulement prendre en compte les données sur la rugosité de la surface, le processus de fraisage, l'avance ou la profondeur de coupe ; mais aussi les caractéristiques de la fraiseuse elle-même comme les vibrations, les informations environnementales comme la chaleur ou l'humidité, ainsi que les paramètres logistiques et commerciaux provenant par exemple des systèmes ERP.

Les modèles informatiques et algorithmes contrôlent et analysent les données pendant le processus de production, une opération qui peut parfois nécessiter de faibles temps de réponse avant son traitement en temps réel. C'est pourquoi l'analyse des données se fait généralement dans les usines au plus proche des machines, en utilisant des systèmes industriels de pointe qui servent d'interface entre les systèmes industriels et informatiques. Ils permettent de garantir que l'analyse et l'action peuvent avoir lieu sans transfert de données vers des centres de données distants ou des clouds afin d'assurer la plus grande stabilité possible du processus.

Il en résulte un cycle de données permanent entre les sites de fabrication géographiquement séparés et les plateformes centralisées. Les modèles de données sont continuellement améliorés en un point central à l'aide des données générées directement sur les sites de production. Ces derniers utiliseront alors à leur tour d’autres modèles et algorithmes pour contrôler les processus opérationnels.

Comment éviter les îlots de données et les dépendances
Pour construire un tel cycle de données tout au long de la chaîne de valeur, les données doivent être intégrées à la fois verticalement et horizontalement. Avec l'intégration verticale, les données des machines ou des systèmes sont transmises à des plateformes centralisées, IoT cloud. Il peut s'agir, par exemple, de la température et de la valeur des vibrations avec l'horodatage correspondant, qui sont régulièrement échantillonnées et visualisées ou traitées par un système central.

Mais à ce stade, les usines sont confrontées à un dilemme. Si elles utilisent les plateformes IoT de leurs différents fabricants de machines dans le cadre d'une approche "best-of-breed" (prétendant offrir des fonctions avancées sur un segment de marché bien délimité), elles créent des îlots de données qui rendent l'analyse et le contrôle globaux plus difficiles. Dans un tel cas, la complexité qui existe déjà dans les environnements de fabrication l’est en effet davantage en raison de l’enchevêtrement de plusieurs bases de données, outils d'analyse et applications dans des interfaces individuelles. D'autre part, si les entreprises s'appuient sur une ou plusieurs plateformes cloud pour réduire la complexité, la dépendance à l'égard de ces plateformes sera plus forte.

L'intégration horizontale des données peut résoudre ces deux problèmes. Avec cette approche, les données ne sont pas transférées vers un emplacement central, mais reliées entre elles par une couche de données distincte. D'où le nom de "tissu de données" qui signifie un maillage de connexions de données, de la même manière qu'une étoffe est tissée par des fils entrelacés.

Les éléments constitutifs d'un data fabric
Le Data Fabric est fondé sur une architecture ouverte et transparente. Les éléments les plus importants de la chaîne de processus sont :

 

  • L'acquisition des données, réalisée à l'aide de modules logiciels qui accèdent aux données via des interfaces de programmation. Les modules logiciels convertissent les protocoles industriels respectifs en paquets IP et capturent ainsi la variété des sources de données.
  • L’agrégation des données, qui passent des systèmes sources au Data Fabric via des pipelines de données afin de les rendre accessibles aux applications cibles. Dans ce contexte, les données sont souvent sélectionnées et compressées, car toutes les données sources ne sont généralement pas pertinentes pour un traitement ultérieur. En outre, les données peuvent être stockées dans un Data Lake. Ce lac de données regroupe la richesse des données hétérogènes liées à la production afin de créer la plus grande base de données possible pour le machine learning. Contrairement à un stockage de données traditionnel, un Data Lake peut être réparti sur différents sites et environnements, tels que des sites de production, des centres de données ou des plateformes clouds. Cela signifie que le lac de données distribué peut également être utilisé par plusieurs entreprises sans affecter la souveraineté des entreprises concernées en matière de données.
  • L’analyse des données, permet d’accéder à la fois aux données opérationnelles en circulation et celles stockées en Data Lakes afin d'expérimenter les modèles de données, de les former, de les affiner et de les mettre à jour en permanence. Grâce à l'analyse des flux en temps réel, les modèles formés sont ensuite utilisés pour surveiller les données des capteurs de la production en cours. Il est ainsi possible de détecter des dysfonctionnements émergents. L'analyse des flux est la base des actions autonomes dans les opérations ainsi que des interventions à plus moyen terme, comme la maintenance prédictive.
  • Enfin, les actions sont déclenchées sur la base d'algorithmes ou selon un logique business, comme l'ouverture d'un ordre de service si une machine ne produit plus la qualité souhaitée en raison de son usure. En outre, les processus en aval peuvent être adaptés sur la base de ces connaissances afin de ramener la qualité dans la plage de tolérance. On parle alors de systèmes auto-optimisés.


Les fondements technologiques disponibles
Lors de la construction d'un ce "tissu de données", chaque entreprise doit choisir entre la concevoir soi-même ou acheter une solution logicielle à cette fin. Aujourd'hui, il existe une abondance de technologies et d'outils open source que les entreprises peuvent utiliser pour construire leur propre Data Fabric. L’alternative est l’acquisition de solutions développées par les professionnels du secteur et donnant accès à des système de fichiers distribué, massivement extensible, avec lequel des volumes de données de l'ordre du pétaoctet peuvent être gérés avec de hautes performances.

L’approche de virtualisation et de déploiement des applications par la conteneurisation est également utilisée comme base technologique pour un Data Fabric. Cela permet de distribuer – rapidement, simplement et avec agilité – les applications s’appuyant sur un Data Fabric entre les sites de production et de logistique, les centres de données et les clouds, tout en fonctionnant de manière uniforme. Les conteneurs et l'orchestration de conteneurs avec Kubernetes sont actuellement les meilleurs moyens pour construire des applications distribuées et largement indépendantes. Ils permettent en outre de résoudre le problème de la persistance des données, puisque des applications monolithiques peuvent être conteneurisées, ce qui concède aux entreprises le bénéfice d'un environnement homogène.

Lors de la construction d'un Data Fabric, chaque entreprise doit répondre à la question "faire ou acheter". Aujourd'hui, il existe une abondance de technologies et d'outils ; en open source pour que les entreprises puissent les utiliser pour construire leur propre Data Fabric ou commercialisés par des acteurs spécialisés. Ces solutions permettent de gérer des volumes de données de l'ordre du pétaoctet, de créer des Data Fabric pour la conteneurisation des environnements d'application, ou encore de prendre en charge l'analyse des sources de données distribuées et leur stockage permanent.

Grâce à un Data Fabric, les entreprises restent largement indépendantes de l’IoT central ou des plateformes cloud car elles obtiennent des effets de réseau via une architecture décentralisée qui est sous leur propre contrôle. Si les services de cloud externe restent des ressources indispensables en raison de leur capacités d'agrégation les industries peuvent dorénavant les utiliser de manière souveraine, c'est-à-dire en contrôlant leurs données et la valeur ajoutée qui en résulte.

Olivier Tant, Category Manager Datacenter et Hybrid Cloud chez Hewlett Packard Enterprise


Les avis d'experts sont publiés sous l'entière responsabilité de leurs auteurs et n'engagent en rien la rédaction

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.