Machine learning :

l’intuition humaine reste essentielle

Présenté comme un accélérateur de performances, le Machine Learning commence à intéresser de nombreuses entreprises. Mais cette analyse prédictive ne se résume pas à cliquer sur quelques icônes. Cette discipline implique un important travail en amont (préparation des données) et en aval (interprétation des résultats). Aussi « intelligentes » soient-elles, les machines restent des partenaires et non pas des décisionnaires !

L’IA fait rêver ! Mais l’intelligence artificielle et ses deux sous-catégories (Machine learning et Deep learning) ne font pas de miracles ! À la manière d'un magicien, il ne suffit pas de tapoter sa baguette sur un chapeau pour qu’un événement se produise.

Les ordinateurs sont de plus en plus puissants et les volumes de données ne cessent d’augmenter, mais l’IA et ses déclinaisons restent des techniques. Il faut de la méthode et de la patience afin de maîtriser ces disciplines scientifiques et éviter ainsi les amalgames et les désillusions. Cela vaut surtout pour le ML (Machine Learning). Cette branche de l’IA sert à développer des processus d’apprentissage permettant à une machine de proposer des conclusions et interprétations que nous devrons toujours valider. En effet, après avoir appris à reconnaître des chiens sur des milliers de photos, une machine ne sait toujours pas ce qu’est un chien et à quoi ça sert ! Rapporté à la prise de décision, le ML consiste à trouver une formule mathématique permettant à une courbe de passer par le plus de points répartis (des données brutes) sur un graphe. Un algorithme dit « d’entraînement » sera établi afin de vérifier que la courbe passe par le plus de points possible. Lorsque la « meilleure » courbe sera trouvée, elle servira de référence. Ce modèle pourra être exploité pour prendre des décisions.

Avec le DL (Deep learning), il s’agit de reconstituer un phénomène (par exemple un mot) à partir de multiples lettres, comme au scrabble. On commence donc par des mots simples avant de passer aux plus compliqués. Pour relever ce défi, on utilise des centaines, voire des milliers de processeurs fonctionnant en parallèle.

Le système va progressivement découvrir lui-même les attributs et construire le modèle d’entraînement. Mais même si le DL relève d’une forme de biomimétisme du cortex visuel, l’analyse n’est pas sémantique.

Détection proactive

Les capacités d’autoapprentissage du Machine Learning permettent de bénéficier d’analyses Big Data plus fines et pertinentes. Cette faculté est aujourd’hui exploitée dans de nombreux secteurs d’activité. Netflix s’appuie sur des séquences d’opérations logiques pour deviner les films ou séries que ses abonnés sont le plus susceptibles de vouloir visionner à l’instant T. La Société Générale l’utilise pour détecter des tentatives de fraudes bancaires. À la différence de la méthode classique (règles préétablies), le ML peut établir des rapprochements statistiques. « Pour répondre aux menaces toujours plus sophistiquées, nous souhaitons en effet passer d’une détection réactive de fraudes connues à une détection proactive de fraudes inconnues en utilisant le Machine learning. L’objectif est de pouvoir constituer un profil d’habitudes de nos clients et d’estimer un niveau de risques en temps réel pour chaque action de navigation et de transaction », explique Frédéric Germain, Directeur du programme sécurité des SI de la Société Générale. Mais le ML présente aussi des limites.

« Comme les machines créent des connaissances, elles pourraient être meilleures que les hommes qui les ont programmées. En réalité, elles sont certes plus efficaces que ce que l’on avait imaginé, comme AlphaGo qui a joué mieux que les hommes au jeu de Go, mais ce n’est pas parce qu’une machine va être plus efficace sur une tache particulière qu’elle va être capable de réinventer des choses. Les machines ne sont pas systématiquement meilleures que nous ! »

Jean-Gabriel Ganascia, professeur à l’Université Pierre et Marie Curie et responsable de l’équipe ACASA (Agents Cognitifs et Apprentissage Symbolique Automatique) du LIP6.

Autre limite de l’IA : croire que le Machine Learning peut être exploité dans tous les domaines et qu’il peut prendre la place de l’être humain. Le ML a montré ses limites dans l’aide à la conduite des voitures autonomes. Ces véhicules s’appuient sur de nombreux capteurs, des processeurs de traitement faisant appel au Machine Learning pour se prémunir de la défaillance d’un composant ou d’un programme et pour retenir la bonne décision sur la route. Mais en juillet 2016, un modèle autonome de Tesla est impliqué dans un accident mortel aux États-Unis. « Éblouis par une forte luminosité, ni l’Autopilot, ni le conducteur n’ont vu la remorque blanche du camion, et le frein n’a pas été engagé », a expliqué Tesla. Le constructeur rappelle que les conducteurs sont censés garder leurs mains sur le volant et qu’ils doivent rester vigilants quand le pilote automatique est activé !

14 % du PIB mondial

Quelle que soit la situation, l’intuition et l’expérience humaines restent donc essentielles. C’est ce que rappelle en substance François Royer, directeur chez PwC spécialiste en data analytics, à l’occasion de la sortie de l’étude Sizing the prize. « Tous les secteurs et toutes les entreprises seront d’une manière ou d’une autre impactés par l’IA. Le défi majeur qui se pose aux entreprises consiste à recruter les bons profils et à se doter de la technologie et d’un accès aux données appropriées afin d’exploiter pleinement les opportunités offertes par l’IA », explique-t-il. Un défi à la hauteur des retombées attendues : une croissance de 14 % du PIB mondial d’ici 2030 selon ce rapport de PwC.

Car l’IA reste une discipline complexe. Même si elle est évoquée depuis la fin des années 50, nous n’en sommes qu’au début. « On n’en saisit pas bien le fonctionnement. C’est un peu comme l’alchimie au moyen-âge, ça reste très empirique », reconnaissait Emmanuel Mogenet, directeur du laboratoire de recherche de Google à Zurich, lors d’une conférence. Il ne suffit pas de cliquer sur quelques icônes pour transformer des montagnes de données en de précieuses informations. Cette discipline ne relève pas de la magie. Il n’existe pas de solutions toutes prêtes. L’humain reste au centre de toutes les décisions.

Exploiter une intelligence artificielle passe en effet par de longues phases d’apprentissage reposant sur deux méthodes. Appelée « apprentissage non supervisé » (ou clustering), cette technique prend en compte l’ensemble des variables d’un problème (données brutes) et en extrait les associations les plus fortes. Cette option présente un intérêt majeur : elle va au-delà des préjugés humains et peut mettre en relief des corrélations cachées qu’un data scientist n’aurait pas imaginées. Mais il n’y a pas de méthodes automatiques. Le résultat dépend des données à analyser et de l’expérience du data scientist. Second procédé : « l’apprentissage supervisé ». Un volume important de données n’est pas suffisant ; il est essentiel d’exploiter les bonnes informations pour qu’elles soient ensuite pré-traitées par un data scientist. Une tâche parfois laborieuse et chronophage, car les moindres modifications des critères d’entreprise ou des sources de data peuvent obliger à reconstruire l’ensemble à partir de zéro. 

Il convient également de nettoyer ces données : suppression de celles qui sont aberrantes, remplacement des valeurs manquantes, optimisation du formatage, etc. L’ensemble de ces processus permet de sentir la présence d’un lien entre telle et telle variable. Mais la réussite de cette démarche intuitive implique de s’appuyer sur des data scientist disposant d’une solide expérience.

« Les machines doivent en effet rester des partenaires. Elles ne doivent pas décider à notre place. L’être humain doit toujours indiquer quelles données sont utiles. Et lorsque l’on obtient un résultat, il est indispensable de conserver son propre jugement et de les rationaliser afin de leur donner du sens. »

Jean-Gabriel Ganascia, professeur à l’Université Pierre et Marie Curie et responsable de l’équipe ACASA (Agents Cognitifs et Apprentissage Symbolique Automatique) du LIP6.
Partager sur

La supervision des algorithmes

L’expérience des data scientist permet également de repérer une diminution des facultés d’autoapprentissage des machines. Concernant la détection de tentatives d’escroqueries bancaires, « l’expérience montre que très rapidement il faut retravailler les cas d’usage au plus près des métiers, car les fraudeurs vont sans cesse évoluer et trouver d’autres moyens de frauder. Progressivement, les performances de l’algorithme vont baisser. Cette régression implique de mettre en place un process de supervision des algorithmes », prévient Marc Damez-Fontaine.

Par ailleurs, l’ensemble des données obtenu devra être formaté ou transformé, afin de pouvoir être exploité par l’utilisateur final. Car une data n’est pas une fraction de vérité. Elle est toujours subjective. Avec le Machine Learning, on cherche davantage à établir des corrélations entre deux événements plutôt qu’un lien de causalité. Il faut donc sensibiliser des métiers qui ne sont pas censés maîtriser les subtilités des méthodes statistiques complexes. « La compréhension des algorithmes par le top management n’est pas toujours évidente. Cela peut être un frein au déploiement massif », constate Jean-David Benassouli de PwC. Aucun algorithme ne peut garantir une corrélation.

L’analyse et la description de très grands volumes de données nécessitent toujours l’intervention d’experts capables d’évangéliser cette discipline. « Ils doivent pouvoir expliquer clairement quel jeu de données sera utilisé, l’enjeu métier et les bénéfices apportés par l’outil de ML », insiste Jean-David Benassouli. Le but de cette démarche est de permettre aux métiers de s’approprier les outils de ML et d’identifier les cas d’usage pour ensuite développer une logique ML. Encore faut-il qu’ils prennent conscience de la valeur de leur historique de données.

Une phase d’étude et de pilote de 10 mois

Toutes ces contraintes et subtilités expliquent que « le passage d’un PoC (qui détecte un pattern de données) à une mise en production significative - notamment dans des grands comptes qui ont des enjeux de sécurité, d’architecture de données, de conduite du changement - est complexe. Aujourd’hui, il y a énormément de PoC qui ont apporté des tendances, des patterns, mais qui ont été extrêmement longs à déployer », rappelle Marc Damez-Fontaine, Senior Manager chez PwC. Au Crédit Mutuel, l’implémentation de l’IA d’IBM pour assister le service client a nécessité une phase d’étude et de pilote qui a duré environ 10 mois et monopolisé jusqu’à 15 personnes cotés IT et métiers (pas à temps complet cependant). 

L’entrée en application en mai 2018 du RGDP (Règlement général sur la protection des données ou, en anglais, General Data Protection Regulation, GDPR) complique également le traitement de ce type d’informations (obligations, entre autres, d’anonymiser et d’assurer la confidentialité ce type de fichiers sensibles).

Nouveau paradigme

Injecter de l’intelligence artificielle dans l’ensemble des fonctions et processus internes est un chantier de très grande envergure. Il implique de la méthode, de l’expérience, de l’humilité et une solide détermination. Une perspective axée sur la dimension métier (plutôt que sur l’aspect technique) permet d’identifier et d’articuler les éléments du projet (compétences, données et réalisation) d’une façon adaptée.

Un nouveau paradigme est indispensable. « Le modèle de l’industrie change. Schématiquement, c’était des directeurs qui avaient une idée et qui donnaient des directives aux ingénieurs. Ces derniers concevaient un produit que des ouvriers fabriquaient ensuite. Aujourd’hui, il faut partir d’une idée initiale et tenter de repérer très tôt des “retours d’usage” à partir de toutes les informations dont on dispose », indique Jean-Gabriel Ganascia.

L’intelligence n’est pas simplement une fréquence de calcul. « Quand on est bébé, on découvre que le monde est tridimensionnel, que lorsqu’un objet est caché derrière un autre, il est toujours là, que certains objets peuvent bouger et pas d’autres… Tout cela, on l’apprend parce que le cerveau humain est une machine à prédire. On ne sait pas encore faire de l’apprentissage prédictif non supervisé avec les ordinateurs. Et tant que l’on ne saura pas faire cela, on n’aura pas de machine vraiment intelligente », rappelait Yann Le Cun, directeur du laboratoire d’intelligence artificielle de Facebook, en 2016. Nous sommes loin de la magie… L’IA est utile dans une réflexion, mais c’est à l’homme de lui donner une trajectoire.

{{contentList.itemsCount}} {{contentList.resultsLabel}}
{{contentList.loadingText}}

PwC en direct

Contactez-nous

Jean-David Benassouli
Associé Data & Analytics - Audit et gestion des risques
Tel : +33 1 56 57 72 49
Email

Suivez-nous !