Page d'accueil du site Navigation principale Début du contenu principal Plan du site Rechercher sur le site

Big Data : le pouvoir des données

La révolution actuelle du digital se caractérise notamment par l’importance des données. Qu’elles soient structurées ou non, les données deviennent une composante importante de toute entité économique, non seulement parce qu’elles sont créées en très grand nombre, mais surtout parce que l’on dispose aujourd’hui d’outils permettant d’effectuer des analyses significatives en termes de qualité prédictive. En quelque sorte, les données commencent à « parler » et ceux qui sauront le mieux et le plus vite les écouter et les exploiter dans leurs modèles d’affaires seront les grands gagnants.

Pour bien comprendre ce phénomène, il est nécessaire de s’attarder quelque peu sur deux éléments forts qui ont fait changer notre rapport aux données : le Big Data et le Data Driven.


Les données au centre du nouvel avantage compétitif

1| Le Big Data, c’est ce déluge d’informations (de données non structurées) dont parlait The Economist il y a déjà quelques années (25 février 2010). En peu de temps, nous avons collecté et stocké plus de 90 % de l’ensemble des données jamais produites dans l’histoire humaine. Inimaginable. C’est ce que l’on appelle les Big Data ! Les Online Data, les blogs, les 82s, les news, les notifications, les données de géolocalisation, de tracking d’activités, de diagnostic santé ou Quantified Self et d’e-commerce. Cela est sans fin, on collecte tout et n’importe quoi. On produit toujours plus de données et nous ne sommes qu’au début du processus, car l’Internet des Objets va engendrer encore plus de données, notamment celles qui seront produites entre Robots, entre Bots et autres algorithmes. Bref, comment tirer profit de cet amoncellement de données de base non traitées (Raw Data) ? Pouvons-nous apprendre quelque chose de ces données ? Y a-t-il des caractéristiques intrinsèques (pattern) propres aux données qui pourraient servir la science, la gouvernance, la médecine, l’économie ? C’est ce que le Data Scientist, le Data Analytics ou le Data Mining essaient de découvrir.

Plus encore que le stock de données, c’est peut-être dans la lecture du flot de données que des renseignements précieux vont nous parvenir ! Si nous pouvions apprendre quelque chose sur l’avenir en lisant et interprétant le flot de données, alors nous parviendrions à un niveau supérieur dans le calcul des prévisions.

2 | Le Data Driven est justement cette démarche empirique et pragmatique qui se base sur les flots de données pour la gestion des systèmes d’information, des organismes étatiques, non-étatiques ou des entreprises. Ainsi la société digitale est d’abord caractérisée par les données, puis par les algorithmes qui les traitent. Dans les phases précédentes de mécanisation, d’automatisation et de robotisation des tâches humaines, on demandait aux machines de réaliser automatiquement certains gestes et travaux que l’homme effectuait auparavant. Ici, au contraire, on évoque quelque chose de plus abstrait : la donnée. Qu’elles soient structurées ou non, les données doivent être collectées et surtout traitées si possible en temps réel et en continu.

Dès lors, et même si ces dernières sont finalement stockées dans de grandes bases de données (Big Data), les données, tout comme les données non structurées, vont composer une sorte de flux continu qu’il devrait être possible de comprendre instantanément à condition de disposer des outils adéquats.

Aujourd’hui, ces outils modernes d’analyse existent et permettent d’interpréter quasiment en temps réel ce flux de données ou d’informations en améliorant ainsi considérablement les processus décisionnels des entreprises ou des organismes étatiques. L’aide ainsi apportée par ces nouveaux outils concerne aussi d’autres domaines de l’activité humaine comme les processus de recherche (Google, Amazon, etc.) mais aussi de production, de marketing et de logistique pour ne citer que quelques domaines. Tout prend ainsi la forme d’un flux tendu (ou continu) donnant au passage de nouvelles capacités prédictives aux structures dirigeantes, qu’elles soient politiques, entrepreneuriales ou autres.
 

Des exigences de performance supplémentaires

Regardons un instant ce qui est réellement en train de changer. Une révolution est en cours et elle engendre un nouvel avantage concurrentiel fondé sur une matière première inédite – la donnée. Cela implique de nouvelles exigences de performance dans l’économie, en plus de la maîtrise des coûts, des délais et de la qualité : vitesse et pertinence d’analyse, capacité prédictive, intelligence cognitive, créativité et faculté de modélisation.

Le problème est dès lors bien posé : il suffirait d’appliquer une procédure de maîtrise des données ! Ceci passerait par la mise en place dans les entreprises et les organisations gouvernementales d’une méthodologie systématique avec pour tâche de faire fonctionner correctement cette nouvelle approche. Celle-ci peut résumer simplement en cinq étapes :

  1. Créer un système complet d’information capable de recevoir des quantités considérables de données, notamment non structurées (stockage de type Data Lake).
  2. Mettre en place un réseau de capteurs physiques ou virtuels qui soient en mesure d’absorber ce flux massif et continu de données (captation).
  3. Maîtriser les outils d’analyse et de visualisation de ce flot de données, et ceci en temps réel (analysw).
  4. Inventer les nouvelles procédures de décision qui découlent logiquement de cette nouvelle approche (assistance en intelligence artificielle de type Learning Machine).
  5. Réinventer un arsenal de procédure de contrôle, d’autocorrection ou de feedback afin de garantir une bonne gouvernance.

Tout ce qui précède concerne essentiellement la compréhension théorique du phénomène. Mais quelques exemples bien choisis pourront donner un éclairage plus pragmatique sur ce changement.

Parcourons donc trois exemples (inspirés d’articles médias-net) dans les domaines de la circulation, du marketing et du business intelligence :
 

1. Swisscom

L’opérateur suisse de télécoms a présenté dernièrement ses projets dans le domaine du Big Data, notamment dans le secteur de la mobilité.

Un exemple ?

« Chaque jour, les clients de notre réseau de téléphonie mobile créent vingt milliards d’événements, via des appels ou des connexions à des antennes, ce qui correspond à un volume de deux térabytes de données », a expliqué Raphael Rollier, responsable du programme Smart City chez Swisscom. Deux térabytes, c’est, à titre de comparaison, la mémoire totale dont disposent, en moyenne, les ordinateurs vendus en grande surface.

Et ces données, Swisscom compte bien les exploiter – pour son compte – mais via des partenariats. L’opérateur a ainsi détaillé un projet très concret démarré avec la commune de Pully, dans l’Est lausannois. « Nous effectuions jusqu’à présent un comptage précis des voitures circulant dans la commune durant une semaine, mais tous les cinq ans. Cela ne nous permettait pas de savoir d’où venaient les voitures et où elles allaient » a expliqué Alexandre Bosshard, membre de la Direction des travaux et des services industriels de Pully. Du coup, la ville de 17 000 habitants a mandaté Swisscom qui a analysé toutes les cartes SIM des téléphones de ses clients (il détient 65 % du marché suisse) actifs sur Pully, mais aussi à l’extérieur de la commune.

L’opérateur a ainsi communiqué à la commune des données précises. « Nous savons de quelle commune et même de quel quartier viennent les voitures qui circulent à Pully, a détaillé Raphael Rollier. Nous savons que sur les 25 000 véhicules qui passent chaque jour dans la commune, 10 % appartiennent à des visiteurs (qui restent entre 15 minutes et 4 heures), 5 % à des pendulaires (qui restent entre 4 et 8 heures) et 75 % à des personnes en transit. » Swisscom assure que toutes les données sont rendues anonymes, agrégées et qu’aucun de ses clients n’est tracé individuellement.

Et ensuite ? « Nous allons planifier de manière plus fine notre réseau routier et par exemple nos giratoires pour éviter que le flux de pendulaires n’augmente encore, afin d’améliorer la qualité de vie de nos habitants », a affirmé Alexandre Bosshard. Swisscom, qui continue à travailler sur ce projet, va aussi s’intéresser à Genève. L’opérateur va démarrer une expérience avec le canton pour examiner la mobilité sur l’ensemble de son territoire.

Le Big Data permet de tracer des voitures, mais aussi des humains. Sur le campus de l’EPFL se trouve une start-up, Visiosafe, ­active dans ce domaine et soutenue finan­cièrement par un certain… Swisscom. « Dans les bâtiments, qu’ils soient publics, qu’ils s’agissent de centres commerciaux ou de boutiques, il devient important de savoir qui passe par quel chemin, combien de temps il s’arrête et où il va. Le Big Data nous aide à obtenir une foule de renseignements utiles pour configurer des bâtiments ou améliorer la rentabilité de commerces » a expliqué Alain Alahi, fondateur et directeur de Visiosafe. La société a installé une centaine de capteurs dans la gare de Lausanne, capteurs qui communiquent avec toutes les cartes SIM des clients de Swisscom. « Nous sommes capables de voir qu’à 10 h 52, il y a un engorgement dans cette partie du passage sous-voie, et pouvons déterminer s’il s’agit de passagers se dirigeant vers un quai proche ou de personnes en transit », a poursuivi Alain Alahi.

Pour Swisscom, ces expériences sont prometteuses. « Clairement, le Big Data est un marché d’avenir, que ce soit pour utiliser au mieux toutes nos données ou pour aider les entreprises à mieux exploiter les données qu’elles ont elles-mêmes » a expliqué Iris Kornacker, responsable de la division « Big Data Solutions » chez l’opérateur. « Nous avons un savoir-faire à partager et ne sommes qu’au début de ces projets. » (composé à partir d’un article du journal Le Temps du 07.10.15)
 

2. Marketing

Les publicités « Display » sont aujourd’hui partout présentes sur le Web et tous les sites que nous parcourons sont couverts de pub de ce type, dit « Display ». Ce marketing en temps réel fonctionne sur la base ­d’algorithmes enrichis par les données personnelles de chacun d’entre nous. Elles ont remplacé les cookies qui réalisaient jusqu’alors ce travail.

Aujourd’hui, les plus grands sites utilisent le Big Data pour récupérer et analyser les données de navigation en provenance de sites tiers.

Amazon par exemple utilise des données de navigation en provenance de Facebook, Twitter, Google pour affiner le ciblage et mieux connaître les intérêts des usagers.

Plus de données, c’est avant tout un ciblage plus précis qui prend en compte un comportement plus objectif sur l’intégralité du Web plutôt que sur un seul site. Si vous vous connectez sur un site marchand seulement pour un produit spécifique, ce dernier n’aura qu’une vision étroite de vos intérêts. Il va donc aller s’alimenter en données auprès des sites d’actualités, réseaux sociaux et autres pour mieux comprendre ce qui vous intéresse en matière d’information et de recherches Web afin de vous recommander, en direct, des produits ciblés.

Le real-time marketing fonctionne sur ce principe avec un besoin monstrueux de données que le pouvoir du Cloud pourra récupérer et collecter en direct et que d’autres sites pourront promouvoir par une offre ou une annonce personnalisée.

N’avez-vous jamais fait l’expérience, par exemple suite à une recherche d’une destination de vacances sur Internet, de recevoir dans les minutes ou les heures suivantes des offres d’hôtels de Booking.com ou TripAdvisor pour ce même lieu ? Sur cette logique, le native advertising et le marketing Display évoluent vers une personnalisation de plus en plus pointue.

Le Display est depuis longtemps personnalisé en fonction des données de navigation et du contenu d’une page Web. Les Networks qui regroupent les médias utilisent le Big Data pour segmenter et cibler au mieux, mais également Google et son offre AdWords. Pour notamment automatiser le ciblage et offrir une large audience ainsi qu’un paramétrage simplifié, les Networks, mais aussi AdWords, utilisent des algorithmes qui permettent, par l’intermédiaire du Big Data, d’analyser de nombreuses variables pour promouvoir une annonce auprès des internautes les plus enclins à cliquer sur celles-ci.

Le native advertising va encore plus loin en mettant en avant des publicités qui participent à l’expérience de l’internaute, souvent au format vidéo. Les outils de native advertising se basent souvent sur le text mining, c’est-à-dire l’analyse du contenu d’un article pour insérer des annonces pertinentes. Par exemple, des annonces vidéo au milieu d’un article sur un grand média ou encore des annonces Display vers des contenus éditoriaux de marques. (composé à partir d’un article du journal « online marketing » du 3.4.15)
 

3. Analyse prédictive du comportement des consommateurs

« On parle de prédictif dès lors que l’on est capable d’extraire des connaissances sur les comportements futurs des clients à partir des Big Data internes ou externes, c’est-à-dire provenant de multiples flux de données. Dans ce cas, le customer intelligence utilise des flux de données externes. Mais à part les GAFA, peu d’entreprises sont aujourd’hui capables de le faire aisément.

On se concentre donc sur les données en interne avec une sorte de Big Data In-House gérée par les DMP (Data Management Platforms). Sans écarter la possibilité de mélanger les données de ses canaux de communication avec des Third Party Data, les entreprises se concentrent le plus souvent sur les interactions de leurs prospects et clients avec leurs Owned Medias, depuis la chaîne YouTube à la newsletter, en passant par le blog. Les flux de données peuvent devenir dès lors très nombreux pour les entreprises.

L’agrégation d’un flux de données plus important, grâce aux plateformes de centralisation que sont les DMP, est une innovation majeure pour la customer intelligence. Autrefois réservé à chaque canal de communication, le reporting manquait d’unification et les entreprises étaient obligées d’adopter plusieurs visions étriquées réduites chacune réduite à un seul de leurs canaux de communication : les perspectives et le reporting restaient ainsi limités sans vision complète de ses outils. La collecte de multiples flux de données permet de les croiser et de les analyser. On récupère ainsi beaucoup plus de savoirs à exploiter en business intelligence puis dans un marketing opérationnel adapté.

Le résultat ?

Des scénarios de marketing automatisés et adaptés pour chaque segment, ainsi qu’une meilleure connaissance de toutes ces populations de prospects et clients permettront de communiquer à travers les bons canaux de communication et ainsi vers les bonnes cibles. À terme, on cherche à mettre en place une analyse prédictive qui offre la capacité d’anticiper les besoins des clients pour transmettre la bonne information ou la bonne proposition, à la bonne personne, au bon moment ! » (composé à partir d’un article du journal « online marketing » du 3.4.15)


Extrait de : "DATA ENTREPRENEURS - Les révolutionnaires du numérique", co-écrit par Xavier Comtesse, Julien Huang et Florian Németi.

Vous pouvez commander cet ouvrage aux Editions G d'Encre