
Big Data est un sujet avec lequel GS1, l’organisation du
code à barres, a quelques familiarités. Le code à barres est un instrument de
collecte de données, et dès son apparition dans les années 70, il a suscité des
interrogations pour la protection de la vie privée du consommateur. Pour
beaucoup ces mots, Big Data sonnent comme Big Brother, et emportent l’imagination dans le monde de la science
fiction. Philip K Dick avec Minority
Report ou Total Recall en a montré la face la plus sombre, Big Data est un
instrument d’oppression même s’il échoue en final. Isaac Asimov avec le cycle
« fondation » a présenté une
approche plus positive. Pour lui Big Data doit sauver la civilisation. Son
personnage Hari Seldon, le mathématicien et psycho-historien a décrit les lois gouvernant l’histoire et la société.
L’objectif, et c’est toute la trame du cycle « fondation »,
est de protéger la civilisation contre
la barbarie. Pour l’un et l’autre, la fonction de Big Data est la prédiction,
qu’elle soit opérationnelle, sociale, politique, peu importe. La prédiction
découle de l’analyse de masse de données, de la capacité des algorithmes à en
faire une lecture intelligente, et d’en tirer des décisions pour agir ou
prévenir. Voilà la logique du Big Data.
Mais ce triptyque a des points de faiblesse, l’exhaustivité
et la qualité des données, la pertinence des
algorithmes de connaissance, la rapidité et la précision de l’action.
GS1 s’intéresse principalement et
presque exclusivement au premier défi, qualité et exhaustivité, c’est dans ce
domaine que son expérience est la plus grande. Concernant le troisième aspect,
celui de l’action, la contribution de GS1 être de plus en importante. En effet,
les technologies d’automatisation de collecte d’information (Code à Barres,
RFID, Echange électroniques, …) sont aussi des outils d’automatisation des opérations
complexes et répétitives qui constituent le champ principal d’intervention de la
robotique de demain.
La collecte de données est la fonction même du code à
barres. Dès 1971 quand fournisseurs et distributeurs ont créé le groupe de
travail pour développer le code que nous connaissons aujourd’hui, l’objectif
était double, accélération et qualité du passage aux caisses et collecte de
données de vente pour améliorer la disponibilité des produits et l’efficacité
des promotions. Par la suite, le développement des échanges électroniques, des
cartes de fidélité, du couponing, de la traçabilité, des catalogues
électroniques ont contribué à accroître les possibilités d’accumuler des données
sur la vie des produits et le comportement des consommateurs. La RFID, les
serveurs d’évènements, le mobile commerce et l’internet des marchandises
ouvrent des perspectives plus considérables encore d’accumulation d’information
de la fourche à la fourchette, de l’étable à la table. Avec 10 milliards de
transactions par jour aux caisses des magasins, la masse de données accumulées
est considérable dans les historiques de vente des entreprises de produits de
grande consommation.
A quoi servent toutes ces données amassées. Quatre grands types d’applications font le quotidien
des entreprises, la logistique (optimisation des approvisionnements, diminution
des ruptures, ..), le merchandising (couponing, organisation des linéaires), le
marketing (introduction des nouveaux produits, gestion des promotions,
m-commerce) et la sécurité (traçabilité, lutte contre le vol, lutte contre la
contrefaçon).
Mais pour que cela marche, il faut que les données soient
fiables. C’est le principal écueil rencontré aujourd’hui. Si les données sont
une mine d’or, les pépites sont encore constituées à 80% d’impureté selon les
deux études les plus complètes menées en Angleterre et en Australie. Et encore
ses études portent sur des données commerciales et logistiques simples, code à
barres, poids, dimensions, … qu’en sera-t-il avec les images des produits, les
données privées consommateurs. La qualité des données est l’enjeu majeur pour
l’industrie des PGC à l’horizon 2020, aussi bien pour les magasins physiques
que pour les ventes en ligne.
Et la solution peut se résumer en une expression qui résonne
un peu comme l’antidote au Big Data, Open Data. Aujourd’hui l’open data est
encore cantonné aux données gouvernementales ou à celles des collectivités
locales, mais son avenir est d’embrasser aussi les données détenues par les
entreprises et intéressant leurs clients, et en particulier les consommateurs. L’approche
de GS1 est de toujours s’assurer que les informations sont collectées et
contrôlées à la source et par l’autorité source. Pour les dire autrement, les
données provenant d’un acteur sont collectées par l’acteur et celui-ci y a
accès pour les contrôler, et cela est vrai qu’il s’agisse d’une entreprise,
d’un consommateur ou d’un citoyen.
L’intelligence est le second défi, mais il semble plus
facile à atteindre dans le contexte industriel et logistique en s’appuyant sur
l’expérience des gens de métier. L’industrie des PGC ne manque pas d’exemples
d’algorithmes de décision utilisant les données de vente croisées avec les
profils de consommateur. Mais plus proche encore de GS1, les commandes assistées
par ordinateur (CAO) en sont l’illustration la plus simple, mais bien qu’évidente
elle encore peu répandue. Il n’est pas certain qu’elle soit utilisée dans la
moitié des magasins de France. Plus sophistiquée, les outils de gestion
partagée des approvisionnements sont une belle application de l’intelligence
tirée du croisement entre flux des marchandises, historiques de ventes,
animations des ventes, et données climatiques.
La troisième question, le passage de la prédiction à
l’action est celle qui sera porteuse des plus grands bouleversements dans la
vie des entreprises à l’horizon 2020. Le Big Data utilise des grandes masses
données collectées à partir d’une multitude d’évènements pour décider
intelligemment sur des multitudes de
flux ou de relations qui sont eux-mêmes des évènements. Pour être fiable et
exhaustive la collecte est automatisée (code à barres, RFID, senseurs,
transactions e-commerce, …) et les algorithmes prédisent et proposent … Pour
être efficace les actions ne peuvent
être qu’automatisées aussi. Ce sont des
algorithmes qui dialoguent avec des algorithmes, des machines avec des
machines. C’est bien ce qui se produit quand Twitter ou Facebook envoient un
message du type « on ne vous voit plus sur le réseau » ou bien
« X a peu d’amis, aider le ! », de même quand Amazon propose une
sélection personnalisée de livres ou de disques.
Dans le monde physique de l’entrepôt, du magasin ou de
l’usine, le big data devrait avoir les mêmes effets de
« robotisation ». La production de données en provenance des clients,
des fournisseurs, des logisticiens, des transporteurs, et des multiples
capteurs dont les bâtiments, l’environnement, les machines, les produits seront
équipés, sera telle que seuls des logiciels seront capables de prendre les
décisions et d’actionner les robots pour réaliser les opérations nécessairement
en temps réel.
Et ceci est d’autant plus vrai que la principale limite de
la machine Big Data est qu’elle est dans l’environnement qu’elle contrôle et
non pas à l’extérieure. Les actions qu’elle déclenche modifient son propre
environnement et peuvent la conduire à des emballements comme ceux causés en
bourse par les systèmes de trading automatiques. Un homme, encore éveillé dans
le navire, devra intervenir pour déconnecter HAL. L’humain est indispensable
pour insuffler de l’intelligence dans le big data et les mécanismes qu’il
pilotera.
Cette possibilité constante de l’humain d’intervenir sur les
données pour y apporter de la qualité, sur les algorithmes pour en contrôler
l’intelligence, et sur les machines virtuelles ou physiques pour les piloter,
c’est l’Open Data. Aujourd’hui l’intérêt se porte principalement sur les
données et leurs collectes, à juste raison puisque sans elles il ne peut y
avoir de prédiction juste. Mais le droit au contrôle des données reste encore à
bâtir. La loi informatique et liberté protège
les particuliers avec le droit « d’accès », le droit de
« rectification ». De nouveaux concepts apparaissent avec le droit
« à l’oubli », ou le droit « au silence des puces ». Les
entreprises aussi devront être dotées de ce droit de protéger leurs données.
Les premières applications d’information consommateur sur les caractéristiques
des produits montrent combien les entreprises sont démunies face à l’usurpation
de leurs données.
Big Data ne tiendra ses promesses de prédiction juste pour
des décisions justes qu’en association avec l’Open Data à condition que cette
ouverture soit offerte à tous les niveaux, la collecte, les algorithmes de
prédiction et la conduite de l’action. Cette combinaison de puissance,
d’intelligence et de participation reste encore à inventer.