Suite de mon enquête sur Big Data. Après avoir parlé de l’affrontement Google Oracle, c'est au tour du vrai Big Data. Le traitement de masses de données, et la recherche
en maths. A ma gauche, peut-être un des meilleurs matheux mondiaux, à ma droite, la force tranquille d’un monstre industriel discret qui fournit le matériel
derrière quelques-unes des réalisations les plus impressionnantes du domaine.
Découragement pour commencer. Le matheux : quand un
lion tue une gazelle, l’hyène arrive puis le chacal. Et les cancrelats ?
Ils sont là avant tout le monde. Idem pour Big Data. Le sujet a été pourri par
les incompétents. Des brasseurs de mots et des vendeurs d’illusions. Data
mining, Big Data, Smart Data… En fait, il y a effectivement des « avancées » dans le traitement de
données. Mais pas une révolution.
Volume, Velocity,
Variety, Value
« Volume, Velocity, Variety, Value » Voilà ce qu'il faut considérer avant de se lancer dans Big Data.
Si je comprends bien, cela signifie que ce que l’on sait
faire maintenant, et que l’on savait moins bien faire avant, c’est traiter d’énormes
volumes de données – donnée exhaustive, pas échantillon -, de natures multiples
et nouvelles, et surtout des flux « temps
réel » (pas de la donnée statique, comme jadis). Employer l’attirail
du Big Data n’est justifié que si l’on cherche du décisif (Value). « Il faut vouloir optimiser quelque-chose,
ouvrir de nouveaux horizons… »
Bref, avez-vous un besoin
urgent de transformer massivement vos affaires ? Les
assureurs seraient dans ce cas. Car Google veut leur faire la peau. Il pense qu’avec
ses algorithmes et ses données il sera vite capable de proposer des assurances bien meilleures que les leurs.
Ce sont surtout les usages qui changent. Au lieu d’analyser
des données passées, on est dans l’aide à la décision et la prospective.
Et, comme souvent, les innovateurs ne seraient pas où on le
croit. L’industrie serait pionnière, avec la maintenance des
machines, la recherche d’économie d’énergie, l’optimisation de processus de
fabrication complexes... (Mon intuition était juste !) Le secteur financier
est peu avancé.
« Donnez-moi des
idées »
Pour commencer, donc, il faut trouver une idée qui casse la
baraque. « On apprend des autres. »
Aujourd’hui, les entreprises cherchent l’inspiration chez les autres. D'ailleurs,
vu l'investissement que représente un projet Big Data, il faut un sacré argumentaire pour le justifier. Seconde raison de trouver une idée impressionnante.
Le problème est
humain !
Mais le problème n’est pas technique. Il est humain ! C’est
de la conduite du changement. C’est quand on est parvenu à formuler un problème Big Data que les difficultés
commencent. En effet il y a « rupture
totale ». Un projet Big Data demande de recréer une organisation au
sein de l’entreprise, d’inventer des algorithmes et donc de disposer de
chercheurs du meilleur niveau mondial, et de faire collaborer des gens « en silo ». Sans compter que l’entreprise
n’a pas généralement les compétences pour faire le pont entre une vision
stratégique des affaires et la compréhension des outils utilisés par le Biga
Data (le fameux « data scientist », qui est plus une sorte d’humaniste
de la Renaissance qu’un autiste ascendant Silicon Valley). Et quand Big Data a produit l'idée qui tue, il faut faire bouger l'entreprise et son écosystème pour la mettre en oeuvre...
Aucun commentaire:
Enregistrer un commentaire