Refermer le menu

La data sous toutes les coutures

infos pratiques
La data sous toutes les coutures
C'est le thème de la 4eme Semaine digitale qui aura lieu du 13 au 18 octobre à Bordeaux : la data, le big data, l'open data. Mais sommes-nous sûrs de savoir de quoi il s'agit ?
C'est la question posée par Louis Dorard et quelque autres lors de la Data Night qui s'est déroulée au Node le 11 juin dernier. 
« La data, tout le monde en parle mais personne ne sait vraiment ce que c'est ». Le ton est donné, la Data Night se veut décomplexée, appelons une data, une data. Quatre intervenants, quatre manières d'utiliser les données, autant d'éclairage sur les possibles usages de la data : Alexandre Vallette, fondateur de Snips sur le volet smart cities et open data, Louis Dorard, auteur d'un ouvrage sur le « machine learning », Bastien Murzeau  (PredicSis) et Raphaël Cherrier, fondateur de Qucit, sur l'analyse prédictive.

Comment introduire une soirée sur le Big data pour des néophytes ?

En les stalkant ! C'est ce qu'a fait Alexandre Vallette en guise de préambule, une cartographie des personnes inscrites et présentes, par centres d'intérêt et domaines professionnels, à partir des informations disponibles sur la toile, c'est-à-dire stockées chez Google. La démarche, certes ludique, donne à réfléchir sur la propriété des données, le droit au respect de la vie privée, le possible détournement de certaines datas...

Le big data, c'est quoi ?

Un tableau de 10 lignes et 6 colonnes peut être considéré comme étant de la big data si la complexité des informations fournies est déjà tellement poussée, qu'on ne peut pas à première lecture, expliquer le rapport entre deux lignes. Donc contrairement à l'idée que l'on s'en fait, le big data ce n'est pas juste quand votre tableur plante, c'est-a-dire lorsqu'il traite trop d'informations, c'est aussi lié à la qualité de cette information.




Comment ça marche ?

Le big data 1.0 fonctionne selon quatre étapes clairement identifiées : collecter, stoker, traiter, visualiser.
Le big data 2.0 rajoute la notion de compréhension et donc celle de prédiction.
Très concrètement, la foule de données disponible peut permettre par exemple à une entreprise de prévoir des pics d'affluence ou de déplacement à partir des données des années précédentes mais également grâce aux données de l'actualité, des phénomènes météorologiques, des pics de pollution... Ce genre de prédiction est basé sur un très grand nombre de paramètre.

Pour illustrer la théorie, deux exemples :

La Poste commande des analyses prédictives pour connaître l'affluence des bureaux de poste parisiens un an à l'avance, ce qui leur permet d'ajuster le nombre d'agent.
Pour expliquer l'abstention aux dernières élections municipales, l'open data des différentes communes permet d'avancer des pistes de réflexions.

La co-construction

Certaines données sont enregistrées automatiquement, d'autres sont volontairement rapportées par contribution. C'est le principe des applis participatives dans les villes, où chaque utilisateur devient un capteur du réseau urbain.
A Bordeaux, l'appli Bordeaux Proximité permet à tous les bordelais de signaler un incident de voirie, une panne, une détérioration. De la même manière l'appli Tranquilien développée par Snips, permet aux usagers de la SNCF de savoir s'il y a ou non du monde dans leur train, ou dans le prochain. C'est également le principe d'Open Street Map, cette appli de cartographie participative qui s'enrichit des contributions libres des divers usagers.

Des points de vigilance ont été soulevés, la protection des données, le droit à la vie privée, la réglementation à définir. Autant de points à débattre lors d'une prochaine Data night !

Pour aller plus loin :
SNIPS
AZENDOO
PREDICSIS
QUCIT
Le livre de Louis Dorard

AddThis Sharing

Hide
Show