Recevez chaque jour toute l'actualité du numérique

x

Intelligence artificielle : L'outil derrière le buzz

Le battage médiatique autour de l'intelligence artificielle ne doit pas faire oublier que cette révolution s’inscrit dans la continuité des méthodes industrielles.
Twitter Facebook Linkedin Flipboard Email
×

Intelligence artificielle : L'outil derrière le buzz
Seemax a développé une solution de mirage automatique dopée à l’IA pour contrôler la qualité des œufs.

Impossible de passer à côté. L’intelligence artificielle (IA) sature les médias. Démonstrations de force du deep learning (apprentissage profond), promesses de gains faramineux, menaces sur l’emploi ou dérives liées à l’usage aveugle de ses algorithmes… l’IA est mise à toutes les sauces.

En quelques années, elle a acquis le statut de révolution technologique du XXIe siècle et s’est imposée comme un enjeu géostratégique et économique mondial. Cet emballement a l’inconvénient majeur de la présenter comme un ovni numérique, a priori bien difficile à intégrer pour un industriel. Or l’IA s’inscrit au contraire dans la continuité des méthodes industrielles.

Une diffusion de l'IA qui vient des entreprises
"Analyser des données, identifier des corrélations, en tirer des enseignements pour optimiser ses process… Ce n’est pas nouveau, rappelle Alexis Fournier, le vice-président de la stratégie IA pour l’Europe, le Moyen-Orient et l’Afrique chez Dataiku, fort d’une expérience de vingt ans dans la datascience. On le fait aujourd'hui sur de nouveaux types de données et avec de nouveaux outils, mais c’est le même principe". S’il y a bien une diffusion de l’IA dans l’industrie, elle vient d’abord des entreprises. "Ce n’est pas l’apparition du deep learning qui a fait entrer l’IA dans l’usine, mais la nécessité pour les industriels de piloter des systèmes de plus en plus complexes et le fait qu’ils ont commencé à stocker leurs données pour cela", tranche Patrick Sayd, le responsable de l’unité IA pour le langage et la vision au CEA List. IA, big data et industrie 4.0, même combat !

Il ne s’agit pas de nier la singularité des réseaux de neurones profonds du deep learning, ni la rupture technologique qu’ils représentent. Mais il faut replacer cette dernière dans son contexte. Celui de la recherche et celui de la performance en matière de perception. Soit le traitement de données homogènes (images, textes et sons, principalement). Ces progrès ont déjà permis un essor sans précédent des applications de commande vocale, de traitement automatisé de documents textuels et de vision par ordinateur. Cette dernière est très utile pour les opérations industrielles. Mais l’industrie a d’autres besoins, que le deep learning n’est pas, pour le moment, capable de satisfaire. Ou pour lesquels on ne peut pas encore lui faire confiance. Sans compter que recourir à cet outil très gourmand en données et en puissance de calcul reviendrait bien souvent à utiliser un marteau-piqueur pour enfoncer un clou.

De nombreux outils pour les industriels
Derrière l’arbre du deep learning, une forêt d’outils s’offre aux industriels : ceux du machine learning (apprentissage automatique). Voilà en quoi consiste l’IA dont on parle tant : des outils qui apprennent à partir des données pour élaborer des modèles. Contrairement à la simulation, qui part des lois de la physique, et de l’IA symbolique, qui s’appuie sur des règles explicitées par l’humain comme dans les systèmes experts

Appliqués à de nouvelles données d’entrée (l’étape d’inférence, par opposition à celle de l’apprentissage), ces modèles pourront prédire les sorties correspondantes, identifier des similarités, détecter les anomalies… Méthodes à noyau comme les machines à support de vecteurs, méthodes d’ensembles – AdaBoost, random forest – et réseaux de neurones… "Ces outils sont bien connus depuis une vingtaine d’années" , rappelle Mathilde Mougeot, titulaire de la chaire Analyse de données industrielles et apprentissage automatique à l’ENS Paris-Saclay. Ils sortent aujourd'hui des laboratoires pour intégrer l’usine. "Les méthodes de machine learning peuvent traiter de grands volumes de données de types variés pour résoudre des problèmes complexes et apporter plus de valeur ajoutée aux industriels", résume la professeure.

Convergence des approches
Identification des défauts, réduction des rebuts, amélioration de la productivité, maintenance prédictive, automatisation du contrôle qualité, gestion des stocks et des approvisionnements… L’IA version machine learning se diffuse à travers de multiples applications. Deux grandes évolutions devraient accélérer le mouvement.

D'abord, l’intégration croissante de l’IA dans les équipements industriels. La vision industrielle est la première à en bénéficier, avec l’émergence de caméras embarquant des algorithmes pour analyser les images en temps réel. Une tendance qui profite à plein de l’explosion de puces dédiées à l’IA : des processeurs graphiques (GPU) déclinés en version nano aux FPGA (field programmable gate arrays), en passant par toutes sortes de puces spécialisées. L’intégration de l’IA dans les machines s’effectue aussi via des algorithmes créés ou adaptés pour tourner dans de simples micro-contrôleurs. STMicroelectronics propose ainsi avec son outil logiciel STM32 Cube AI de transposer un réseau de neurones pré-entraîné vers un micro-contrôleur STM32. De son côté, la start-up Cartesiam crée des algorithmes capables d’apprendre à détecter des anomalies directement dans les micro-contrôleurs.

Deuxième grande évolution : l’apparition d’outils logiciels facilitant l’utilisation de l’IA dans les entreprises. L’open source régnant sur l’IA, les algorithmes les plus performants sont en libre-service. "Jusqu’à récemment, les briques open source étaient destinées aux datascientists, avec des algorithmes à calibrer, à paramétrer, rappelle Anne-Sophie Taillandier, la directrice de TeraLab, la plate-forme big data de l’Institut Mines-Télécom. Mais on voit apparaître des outils adaptés aux non-experts, comme un ingénieur procédés qui voudrait expérimenter des modèles d’IA". Des logiciels AutoML (machine learning automatisé) prennent ainsi en charge la construction de modèles adaptés aux données et aux cas d’usage de l’utilisateur.

Plus largement, des solutions ont émergé pour permettre un usage généralisé et structuré des données dans l’entreprise. Dataiku, licorne française, est pionnière de ce type de plateforme qui fait graviter autour des données toutes les compétences nécessaires à leur bonne exploitation. Un atout majeur pour que les POC (proofs of concept, ou démonstrateurs) débouchent sur une mise en production. "Des datascientists enfermés dans leur datalab comme dans une tour d’ivoire, qui ne connaissent ni le métier ni le contexte d’utilisation, ont peu de chances de créer une solution performante et qui soit adoptée sur le terrain", souligne Alexis Fournier. Si les prouesses du deep learning ont pu donner l’illusion que le machine learning allait balayer des décennies d’expertise, de modélisation physique et d’IA symbolique, l’heure est à la convergence des approches. Pour passer du buzz à l’usine, l’IA s’allie à l’humain.
 

A la recherche d’une IA de confiance

Comparé à la programmation classique et à l’IA symbolique, le machine learning produit des modèles dont il est souvent difficile d’évaluer la fiabilité. En effet, les données d’apprentissage ne représentent pas forcément tous les cas réels possibles, et surtout, concernant les réseaux de neurones, la théorie manque pour décrire les connaissances encodées. Ce qui rend d’ailleurs leur "raisonnement" inexplicable pour l’humain. Si nombre d’applications, même industrielles, peuvent s’en accommoder, ce n’est pas le cas de certains secteurs comme la sécurité ou l’aéronautique, pour qui la confiance, préalable à la certification, est indispensable. L’un des grands défis lancés par le Conseil de l’innovation consiste à "développer une IA de confiance pour les systèmes critiques", résume Julien Chiaroni, son directeur, également chargé de la stratégie et des programmes du CEA List. Pour cela, il faudra créer une plate-forme logicielle pour la conception de systèmes sûrs à base d’IA, une plate-forme de validation des systèmes de mobilité autonome, et définir une stratégie de normalisation.

 

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.