Page d'accueil du site Navigation principale Début du contenu principal Plan du site Rechercher sur le site

Machine learning

La victoire au début 2016 de DeepMind ­(Google) sur l’un des meilleurs joueurs de go mondial a bouleversé le monde de l’informatique. Il est désormais clair qu’à l’avenir, les ordinateurs vont pouvoir faire mieux que l’homme dans toutes sortes de tâches. Des programmes auto-apprenants appelés ­Machine Learning (ou parfois Deep Learning s’ils utilisent une technologie plus avancée) ont des capacités de faire des analyses prédictives qui permettront d’optimiser les processus industriels afin d’obtenir, par exemple, des analyses en temps réel notamment en termes de contrôle.

Les Machines Learning sont des programmes d’ordinateurs qui font appel à plusieurs disciplines dont les mathématiques, les statistiques, l’informatique et les savoirs des métiers propres au développement spécifique de l’application considérée. Ils font aussi massivement appel à un grand nombre de données (Big Data) pour améliorer leur performance, d’où le lien fort avec le contenu de ce livre.

Grosso modo, il ne s’agit plus seulement de programmer les machines pour des tâches répétitives mais qu’elles soient capables d’apprendre par elles-mêmes grâce à des algorithmes d’auto-apprentissage et à l’analyse massive d’une abondance de données.
 

Quels principes sous-tendent les machines learning ?

Pour prédire un phénomène, deux possibilités se présentent généralement. Soit on établit un modèle prévisionnel basé sur la statistique et des logiques causales (méthode classique), soit on crée un modèle prédictif qui lui est basé sur l’analyse des données et la programmation neuronale de type auto-apprenant (méthode de la révolution industrielle 4.0).

Il s’agit ici de construire des systèmes autonomes que l’on pourra éduquer sur la base d’un ensemble d’exemples pertinents.

Pour ce faire il existe essentiellement deux stratégies :

1) L’apprentissage supervisé par un Data Scientist qui devra procéder selon différentes étapes :

  • Créer une représentation des prédictions possibles.
  • Faire des choix parmi ces prédictions car certaines sont meilleures que d’autres. Une méthode d’évaluation est ainsi indispensable.
  • Trouver la meilleure prédiction en mettant en place une stratégie d’optimisation.

Cette décomposition en trois phases caractérise toutes les démarches d’apprentissage supervisées.

2) L’apprentissage non supervisé permettra quant à lui de découvrir des structures cachées dans les données plutôt que d’effectuer un travail de généralisation à partir d’exemples concrets.

Plusieurs algorithmes peuvent être utilisés en fonction du concept adopté pour l’implémentation des modèles que le Data Scientist va choisir.
 

Quels usages en milieu industriel ?

Les applications industrielles sont chaque jour plus nombreuses, notamment dans le contrôle en temps réel de la production automatisée. Mais on les trouve aussi dans l’industrie de la Santé ou encore dans les services après-vente, avec le pouvoir de détecter en temps réel les anomalies sur des moteurs et de proposer le remplacement de la pièce défectueuse.

Mais de manière plus générale, il est désormais possible, grâce aux Machines Learning, d’abaisser les coûts de production, d’optimiser la logistique et de proposer des modèles commerciaux qui correspondent mieux aux attentes du marché.

Ceci pourra s’appliquer à tous les secteurs de l’industrie et à tous les métiers.
 

Quel avenir industriel pour cette révolution ?

Les Machines Learning seront avec le Big Data des éléments essentiels dans cette transformation industrielle car cela concerne le matériel de base du numérique : les données. Comme le nombre de sources de données augmente, notamment avec l’Internet des Objets et les nouveaux capteurs connectés, alors le Machine Learning et les secteurs associés vont se développer rapidement.

À court terme, on peut observer plusieurs tendances :

  • L’avènement de l’Internet des Objets (IoT) qui va accroître de manière exponentielle les données disponibles.
  • Le Big Data et le Machine Learning qui seront combinés et développés.
  • Le Deep Learning et le calcul cognitif qui sont une autre possibilité.

Sans doute, d’autres techniques seront encore introduites ces pros années et en particulier dans des applications liées à la reconnaissance de la vidéo, de la voix et des images ainsi que tout ce qui touche au langage naturel et aux assistants personnels (Siri, Cortana, etc.)
 

Quels sont les freins observés à l’adoption de ces techniques dans le secteur industriel ?

Aujourd’hui, on observe quatre types de freins :

  • La difficulté de comprendre les enjeux nouveaux de ces techniques ne favorise pas une prise de décision vraiment rationnelle.
  • Même si l’outil industriel de production est évolutif, il est difficile ou coûteux de vouloir tout transformer d’emblée.
  • Le compromis entre les nouveaux frais d’investissements et ceux de la maintenance courante conditionne toujours la mise à jour des systèmes.
  • Le changement de mentalité imposé par la révolution numérique ne convient pas toujours aux entrepreneurs formés à l’esprit mécanique. Faire confiance à des algorithmes et des données n’est pas évident.
     

Comment passer à l’acte ?

Pour le chef d’entreprise ces nouvelles techniques sont en général loin de son quotidien. Il doit donc dans un premier temps être capable d’approfondir la connaissance de ces nouvelles techniques par un apprentissage des concepts. Ensuite, il lui faut trouver soit une aide extérieure avec par exemple des « intégrateurs » de systèmes informatiques, soit engager un jeune Data Scientist, ou encore en former un à l’interne.

Il en découlera une décision centrale qui exprimera le véritable « besoin » poursuivi par l’entrepreneur : qu’est-ce que l’entreprise veut faire ?

Souvent mal posée, cette question est pourtant centrale : il est plus simple d’atteindre un but lorsqu’il est clairement exprimé.


Vidi : un système de contrôle ­industriel par le « deep learning »

ViDi Systems SA, start-up suisse, a édité un ensemble d’outils logiciels qui se distingue par une approche de « Deep Learning » simplifiant le contrôle visuel par apprentissage automatique sans nécessiter de programmation supplémentaire.

Le logiciel interprète les images d’une série de « bonnes » pièces pour définir un modèle de référence auquel sont ensuite comparées les pièces à inspecter. Le modèle inclut les variations liées aux processus de fabrication.

Par exemple, pour une vis médicale, le modèle est créé en moins de 20 minutes à partir d’une sélection d’images de plusieurs « bons » échantillons mis en rotation sur leur axe.

En phase d’inspection, le logiciel rapporte les défauts identifiés (rayures, bosses, taches…) n’importe où à la surface de la vis, « avec une acuité jusque-là obtenue uniquement avec l’œil humain » selon la société.

Inventé et programmé par Reto Wyss (la légende dit qu’il l’aurait fait en quelques semaines seulement) ce package informatique permet à tout système de production automatique d’avoir un contrôle expert virtuel meilleur que l’homme – souvent trop versatile. Un algorithme digital n’a pas d’états d’âme… cela peut aussi être utile.
 

Aéronautique : Airbus

Confronté à une capacité limitée des systèmes d’information traditionnels (base de données) pour traiter des masses d’informations de plus en plus gigantesques, Airbus a basculé vers les outils du Big Data et du Machine Learning. Le but étant de pouvoir absorber l’analyse des tonnes de données qui vont encore être multipliées par un facteur mille grâce à de nouveaux capteurs de plus en plus sophistiqués embarqués dans les avions.

Concrètement, par exemple lors des vols d’essai, les ingénieurs d’Airbus récupèrent un ensemble de données issues des capteurs standards des avions et de ceux supplémentaires posés spécifiquement pour les vols, ­allant à plus de 2 To par journée. (Un To c’est 1000 Go, et un Go c’est 1000 Mo – c’est énorme.)

Les Big Data ont des outils d’analyse associés pour maîtriser ces volumes, mais souvent on va faire en plus appel aux techniques des machines learning pour améliorer la capacité d’analyse. Là est le lien entre Big Data et Machine Learning quand en quelque sorte l’un vient à la rescousse de l’autre.


Extrait de : "DATA ENTREPRENEURS - Les révolutionnaires du numérique", co-écrit par Xavier Comtesse, Julien Huang et Florian Németi.

Vous pouvez commander cet ouvrage aux Editions G d'Encre