Big Data : 1% des données sert au décisionnel et c’est normal
Big Data : 1% des données ce n’est pas beaucoup, mais c’est pourtant ce qui sert à faire du décisionnel. Et ce n’est pas une anomalie. Explications ici. NON ! JE NE VOUS PARLERAI PAS de l’opération Carambar en vous donnant un point de vue différent comme tout le monde ! C’est un joli coup de pub et de RP, il n’y a rien à (en) dire, sinon un coup de chapeau pour cette manipulation (qui risque de coûter un peu cher à la marque et ou l’agence la prochaine fois car les journalistes n’aiment pas qu’on se moque d’eux). Aujourd’hui, nous allons parler, comme le businessman du Petit Prince, de “choses sérieuses”… Le BIG DATA , le décisionnel et le CLOUD COMPUTING.
Big Data : 1% des données sert au décisionnel et c’est normal
Les anciens de l’informatique connaissent bien Information Builders, entreprise pionnière de l’informatique décisionnelle (38 ans d’existence, classée leader de son domaine par Gartner, voir ci-contre en cliquant), et de ce qui se nommait EIS (Executive Information Systems) et a évolué vers le BI (Business Intelligence – Big data et informatique décisionnelle).
J’avais un peu perdu de vue l’entreprise depuis lors, mais à la faveur d’une conférence intitulée “autonomie d’une nouvelle prise de décision” qui s’est tenue le 27 mars 2013 sur les nouvelles tendances de l’informatique et leurs conséquences sur les entreprises en termes de décision. La table ronde accueillait également des intervenants d’EMC et de Inbox. On y a parlé beaucoup Big Data, Cloud Computing et décisionnel.
déplacement du domaine du décisionnel
Je ne suis pas un fan du terme “big data” qui tend à faire passer la quantité (big) pour de la qualité, et surtout de la “donnée” pour de “l’information”, ce qu’elle n’est pas bien-sûr. Revenons sur les fondamentaux…
La problématique du décisionnel a beaucoup changé depuis les années 1990. A l’époque, les données étaient rares, mais elles étaient propres (dans les 2 sens du terme). La préoccupation des patrons du Marketing – comme c’était le cas chez Unisys quand j’y travaillais – était de bien utiliser ces données internes, peu pléthoriques, mais déjà difficiles à analyser. L’emphase était alors sur la l’analyse pure et, surtout, la présentation formelle des données propres à la prise de décision, en temps réel dans les réunions de comités de direction. Ce champ a été occupé, au fil des années, par des acteurs comme Business Objects (plus tard racheté par SAP) et Information Builders, mais le décisionnel s’est semble-t-il déplacé sévèrement et a succombé à la mode des médias sociaux. Certes, mais le Big Data ne se limite pas à ça comme le montre ce visuel issu de l’étude IDC /EMC.
Si l’essentiel des données viennent aujourd’hui des outils de surveillance (là on se doute des noms des principaux clients des outils du décisionnel, et on imagine leurs galons), il semblerait que le médical parte en flèche dans les années 2020, ce qui n’est peut-être pas étonnant vu le vieillissement des populations occidentales. Mais le fait notable est, selon cette prévision, le tassement (en proportion) des données issues des médias sociaux et surtout la quasi disparition des images et des vidéos utilisateurs. Même si je suis assez étonné par cette dernière trouvaille, je n’ai pas de mal imaginer que les données moins “futiles” sont plus à même de fournir de l’information décisionnelle. Il y a plus à tirer de l’analyse d’une cohorte de malades, que d’une horde de “likers” frénétiques.
Car beaucoup des discussions du panel (voir photo ci-dessous) ont tourné autour de l’analyse de tonalité, un “vieux” sujet de 2006-2007 qui est un peu en mode survie aujourd’hui et que j’ai toujours voulu prendre avec des pincettes. L’analyse des sentiments est effectivement le graal du décisionnel dans les médias sociaux et dans la communication en général, mais … car il y a un mais … Jon Husband, présent dans l’assemblée, l’a fait remarquer, ‘”l’analyse prédictive de la tonalité – sentiment analysis en Anglais – reste un défi car les logiciels sont peu capables d’analyser ces données molles du fait du manque de contexte”. Il faudra ajouter de l’intelligence humaine, c’était ma conclusion dès 2006, à la naissance de ces concepts et de ces logiciels : il s’agit d’un marchéLa notion même de marché B2B ou B2C est au cœur de la démarche marketing. Un marché est la rencontre d'une offre et d'une demande – à terme – de conseil et non simplement de mesure.
Big data et décisionnel : 3 V ou 3 T ?
Le panel de la discussion a évoqué les 3 V du Big Data : volume, vitesse, variété de données : selon les panelistes, ces 3 enjeux du Big Data, sont aussi ceux de tous les décisionnaires de l’entreprise, pas seulement les top executives. Le 4ème v est encore plus important, c’est celui de la véracité, celui va transformer la donnée en information. Mais où est le véritable problème marketing ?
Sans doute que la problématique de base est plus à chercher du côté du temps et de la maturité marketing (et non informatique) ? Seules 1% des données seraient analysées selon l’étude IDC / EMC. La donnée de base donc n’est pas la donnée ou l’infobésité, une préoccupation d’informaticien en somme, il n’y a que nous – et encore, je n’en fais pas partie – pour nous émerveiller des zettaoctets que nous générons. La plupart de ces inflations de données sont d’ailleurs fictifs et sont dus à l’infobésité des logiciels et des matériels : en revenant sur mes photos numériques des années 90, je me suis aperçu qu’elles faisaient 500 KO, et maintenant, un négatif numérique de photo d’art comme celle ci-dessous fait 25 MO! Certes, elle est plus belle, et me permet de faire de jolis agrandissements, mais ce n’est pas un accroissement d’information, mais un accroissement de données. Donc finalement, l’accroissement du nombre et du poids des photos sur Internet n’a pas changé la donne. La preuve … les photographes professionnels existent toujours, et vous pouvez toujours acheter un Nikon D600 ou même D800 pour essayer les suivre … vos fichiers de 25MO n’y suffiront pas.
Le décisionnel dans les médias sociaux, et ses acteurs de niche
Le véritable défi, pour les médias sociaux, me semble se situer aussi autour du fait qu’il semblerait que l’analyse de la donnée à des fins de décision, notamment liées aux médias sociaux, aient échappé – du moins temporairement – aux acteurs majeurs du décisionnel. Ainsi, les incontournables du domaine sont la plupart du temps de petits acteurs, historiquement implantés sur les médias sociaux : certains orientés outils et spécialisés (Tweetreach, imbattable sur Twitter en événementiel, Socialbakers sur Facebook, …) ou spécialisés sur le domaine de l’influence (comme l’excellent e-cairn, une création française, même si elle est implantée dans la Silicon Valley) ou qui viennent du monde de l’édition logicielle Web SaaS ou du service (Digimind en France et Synthesio en France et au UK, Radian6 aux US, Linkfluence, un petit acteur talentueux en France, …). Le responsable digital et décisionnaire ne sait plus où donner de la tête, mais en même temps il est piégé car aucun de ces outils n’est capable de tout traiter correctement.
Les éditeurs n’ont pas fini de chercher ni de mettre au point leurs solutions, à la recherche d’une perfection à 360° dans un domaine où ce n’est finalement peut-être pas possible. J’ai pour ma part arrêté de la chercher et j’essaie de prendre des décisions sur ce que je vois, plutôt que d’essayer de tout mesurer. Voir ma présentation en Anglais au sujet du futur des études de marché.
Peu importe, le vrai problème de la Big Data est hors des médias sociaux, on le voit clairement dans l’étude IDC, et la problématique de temps et de capacité à traiter ces données pléthoriques n’est pas triviale, les 3 v sont peut-être à remplacer par les 3 T : le temps, le temps et le temps.
En fin de compte, ce qui permet de trier la donnée, c’est le filtrage et l’élimination volontaire et arbitraire de la donnée pléthorique : il n’y a rien d’étonnant donc à que seules 1% des données servent à la décision. C’est même presque heureux.
Voici mes notes in extenso de la réunion et du panel
1. LE BIG DATA
Stéphane Schreiber (Brainsonic) a introduit la présentation en donnant “un seul chiffre : seulement 62% des entreprises ont conscience de l’importance du big data et la plupart ne savent pas véritablement ce que c’est”.
“Ils ne savent pas par quel bout prendre le sujet” selon M. Kaddeche de Inbox, or le retour d’expérience, c’est qu’il faut d’abord explorer et voir ensuite ce qu’on peut mettre en œuvre.
Autre étude IDC (Digital Universe) : C’est une étude EMC qui en est à sa sixième année qui définit la taille de l’univers digital. IDC revient chaque année sur les données de l’année précédente.
En 2005, la taille de l’univers numérique, 130 hexa octets (1 milliard de GO), la prévision pour 2012? c’est 2.8 zettaoctets et pour 2020, on arrive à 40 zettaoctets [je ne sais pas exactement combien ça fait, mais ça doit être beaucoup !]
- ces données viennent majoritairement 1) du particulier : le particulier est à l’origine de 60%+ des données produites 2) du m2M : 20-25% des données générées mais à 2020 cela sera 40% des données générées 3)
- environ 200 milliards d’appareils connectés (7 milliards d’individus) à l’horizon 2020.
- 16% de ces données sont transmises dans le cloud et cela sera 30% ou plus à horizon 2020. “Finalement, quand on réfléchit, cela ne fait pas tant que ça !” dit M. Verger. “La peur de M. tout le monde, c’est de perdre la main sur ses données”. L’un des enseignements de cette étude, c’est que le consommateur va avoir le choix.
- Tout ceci est un enjeu majeur pour les entreprises : 1) les médias sociaux : on sait déjà prédire une épidémie, un succès de cinéma, d’un lancement de produit avec les médias sociaux” a dit M. Khaddeche (photo ci-dessus), et il y a un volet interactif de plus en plus important, et les médias sociaux deviennent un véhicule de communication de plus en plus important. Le client pose déjà ses questions de SAV, et certaines entreprises maîtrisent déjà cela très bien 2) les données de navigation
L’infobésité n’est donc pas près de disaparaître nous a confrmé M Mokemat de Information Builders. “Sur un plan technique, le premier porblème à régler sera celui du stockage, et le deuxième sera l’intégration de ces données”. En effet, beaucoup de ces données sont des données non structurées. Le critère qui va prendre de plus en plus d’importance aussi, c’est l’intégrité de ces informations, leur fiabilité (voir mon compte-rendu sur la présentation de Yseulis Costes en Décembre 2012 sur ce sujet).
Information Builders a pour premier métier l’intégration des données (j’ai souvenir en effet de présentations auxquelles j’ai assisté en 1995 sur le BI ou “Business Intelligence”). Ils avaient construit un middleware ‘ESQL’ qui permettait de se connecter à plein de sources de données hétérogènes. Le vrai enjeu pour la société informatique est maintenant de se brancher sur les automates qui seront les premiers fournisseurs de données. “Le challenge sera de croiser ces données avec les données de l’entreprise, qui sont elles des données maîtrisées et aussi anticiper les événements pour prendre de meilleures décisions”. Il y a une partie dédiée à la collecte, à l’analyse et enfin à la distribution et la présentation de ces données. De plus en plus, il faudra aussi être capable de faire du prédictif.
L’écueil de base est de tenter de résoudre le problème métier par la donnée, même si c’est ce qu’on imaginait au début du CRM” a dit M. Kaddeche. Si un client a besoin de voir un conseiller, il ne faut pas l’envoyer sur un achat en ligne” a-t-il dit
2. LE CLOUD
Le Big data et le cloud ne vont pas l’un sans l’autre” a rappelé Sébastien Schreiber. “Le cloud et le big data s’auto-alimentent” a confirmé M. Verger. Dans l’enquête digital universe, IDC insiste que seules 1% des données sont analysées pour prendre des décisions” a ajouté M. Verger. Il a déccrit ensuite 2 tendances majeures du cloud et du big data, et une initiative originale lancée par EMC pour s’attaquer à ce marché.
- Autant le cloud trouve sa cible dans l’IT, autant le Big data est en prise sur les métiers. Il en résulte que le cloud nécessite de nouveaux moyens de stockage (notamment des équipements de “scale-out” qui permettent de tirer la capacité vers le haut dynamiquement).
- On parle aussi de bases de données massivement parallèles qui permettent d’assurer un engagement de bout en bout qui se rapproche de ce qui se passe dans le calcul scientifique
- initiative “pivotal” annoncée le 13 mars par EMC. Le gisement de croissance vient des applications qui vont utiliser ces données du big data. La croissance est de 70% par an selon IDC tous les ans. Sur les nouvelles applications qui ont été conçues pour tourner sur le cloud et traiter des données structurées et non structurées, la croissance pour les 7 ans à venir est de 700%, soit 10 fois plus. C’est pour cela que EMC a créé l’initiative Pivotal, qui reste une société indépendante du groupe, avec tous les outils et 400m$ de financements. Objectifs pour 2013 300m$ de CA et 1M$ en 2017 (elle sera ensuite mise sur le marché dès qu’elle aura atteint cet objectif)
3. LES MEDIAS SOCIAUX
la blague Carambar
En matière de Big Data et de décisionnel, IB s’est aussi attaqué au graal des médias sociaux, sur la piste de l’analyse de tonalité. Carambar a lancé une fausse nouvelle sur la disparition de ses emballages et a pu mesurer l’intérêt de ses fans et a pu très rapidement apporter un démenti, ce qui “fait une campagne marketing à moindre coût”. IB se lance donc lui aussi, avec un peu de retard, sur le marché de l’analyse de tonalité et d’analyse sémantique du contenu
- quel est le mot le plus utilisé sur une communauté/thématique et être capable d’en déterminer des tendances.
4. LA MOBILITE
La mobilitéL'utilisation du mobile joue un rôle de plus en plus central auprès des acheteurs B2B, notamment dans la phase de recherche d’information. et son essor sont aussi au cœur de la génération de big data, et le sujet est de se dire. “Qui dit mobilité dit aussi réactivité” a précisé M. Mokemat qui a fait le constat que de plus en plus d’utilisateurs utilisent leurs mobiles personnels pour se connecter au processus métiers de l’entreprise (le BYOD devient le concept à la mode). IB a pris en compte ce facteur en adaptant ses tableaux de bord et analyse pour un accès direct sur smartphones et tablettes, quels que soient les OS utilisés (via le standard HTML5). Il existe aussi un mode déconnecté qui permet d’embarquer l’intelligence dans le terminal mobile.
Information Builders est une société américaine basée à NYC et a 38 années d’expertise, 1350 personnes et 60 agences dans le monde entier. Société privée non cotée, elle a des millions d’utilisateurs et de dizaines de milliers de clients, parmi eux en France, la SNCF et le Crédit Mutuel.
- De l’intelligence artificielle générale - 04/10/2024
- Conseils pour gagner en impact en visioconférence - 30/09/2024
- Le smartphone est-il l’avenir de l’IA générative ? - 27/09/2024
Un post des plus intéressant, bonne conclusion sur la mobilité, je pense que cette thématique sera de plus en plus une priorité de métier.
Merci pour le commentaire et le tuyau sur goodreader pour iPad sur votre site je vais l’essayer.