Sélectionner une page

Retour sur l’événement Big Data Paris, avec Chems

Peux-tu te présenter en quelques mots?

Big Data Paris

J’ai 26 ans, je viens de Constantine.  Je suis diplômé de Grenoble INP – Ensimag que j’ai intégré après une prépa au lycée du Parc à Lyon. Dès l’obtention de mon diplôme, en octobre 2015, j’ai intégré les équipes d’Astek en tant que consultant Data Scientist en charge d’un projet pour Amadeus, à Biot. Un projet enrichissant, m’ayant permis de développer mes compétences techniques, tout en faisant du management en tant que Scrum Master.

Tu as participé à la 8ème édition de
« Big Data Paris » . Peux-tu nous en dire un peu plus ?

Je reprends la description du salon : « L’objectif de l’événement Big Data Paris est de vous proposer un panorama complet des opportunités, perspectives, technologies et de réunir l’écosystème français et international du Big Data. »  Je pense qu’elle résume assez bien ce que j’attendais de cette manifestation, et pourquoi – travaillant tous les jours avec des technologies Big Data – j’ai tout de suite souhaité y participer. En effet, nous sommes dans un domaine où le contexte ainsi que les technologies évoluent très vite. Je trouve donc essentiel et important de rester informé des nouvelles options et solutions proposées par les différents acteurs.

As-tu fait de belles rencontres?

Je me suis baladé au milieu de 250 exposants où j’ai pu rencontrer et échanger avec des représentants d’entreprises comme Elastic, Cloudera, Couchbase, Confluent ou encore Databricks. L’opportunité pour eux de me présenter leurs nouveautés !

J’ai également assisté à des présentations de différents usecases, notamment de la part de Dataiku, Actinvision, Snowflake et Trifacta. Enfin, j’ai eu l’occasion de découvrir de nouvelles entreprises telles DigDash (entreprise française) et Birst, nouvel arrivé sur le marché Européen, concurrents de Qlik et Tableau. Lors du Big Data Paris, j’ai également fait la découverte d’Alation, première société du marché à lancer un catalogue de données, permettant une meilleure circulation des données au sein d’une même organisation.

Big Data Paris

A quels ateliers as-tu eu l’occasion de participer?

J’ai pu participer à des ateliers très intéressants sur plusieurs sujets : de la visualisation des données (DigDash) aux Chatbots (présentations par SAS et IBM) en passant par les retours d’expérience de l’utilisation de la Data Science dans différents métiers (la restauration ou encore les missions régaliennes). Je suis toujours aussi surpris de découvrir à quel point le domaine d’application des métiers de la Data s’élargit de jour en jour.
J’ai notamment pu retenir que de nombreuses entreprises partagent des besoins identiques concernant la Data. Par exemple, on retrouve le besoin de réunir leurs données métiers dans un DataLake, et d’alimenter cet entrepôt avec des indicateurs clés et des outils de valorisation de la donnée. Il est donc intéressant de gagner du temps et de l’effort quand il faut fournir ce type de services. Concernant les Chatbots, ces sympathiques (ou pas) bots se répandent de plus en plus sous plusieurs formes (même s’ils doivent se confronter au RGPD) : dans énormément d’entreprises ils deviennent de parfaits assistants et traitent plusieurs tâches quotidiennes (surveillance, validation…).

En résumé : Le self-service BI et le Natural Language Processing, stars de cette 8ème édition du Big Data Paris.

Un mot que l’on a beaucoup entendu dans ce salon : « Cloud ». Les besoins évoluent, et les utilisateurs métiers souhaitent désormais devenir plus autonomes dans l’exploitation de leurs données. Pour répondre à cette problématique, il faut fournir du « self-service BI » : des solutions de BI dans le cloud (quel que soit le fournisseur Amazon Web Services, Microsoft Azure…).   
Ce qui peut se comprendre : un utilisateur ayant choisi de mettre ses données dans le Cloud, chez le fournisseur de son choix, ne souhaitera pas tout chambouler afin de s’adapter aux solutions BI. Qui plus est, il ne souhaitera pas acheter une solution dont il n’utilisera pas les deux tiers. L’utilisateur préfèrera une solution agile et sur-mesure qui s’adaptera à l’environnement et à ses besoins.

Le Natural Language Processing est l’autre notion phare, que ce soit à travers des chatbots ou bien directement sur les barres de recherche. Le but étant de faciliter la création de rapports, ou l’exécution de certaines tâches, même si le demandeur n’a pas de formation technique. Il s’agit de la démocratisation de l’accès aux Data Analytics. Nous rêvons tous de communiquer directement avec notre outil comme avec une autre personne, et d’obtenir un rapport en tapant simplement : « Montre-moi l’évolution de mes ventes cette année en comparant avec la concurrence ». Lors de la conférence, j’ai pu observer qu’il s’agit de l’axe principal d’évolution de plusieurs acteurs de la Data, et que l’on peut d’ores et déjà accomplir quelques actions et requêtes dans ce sens.

Un dernier mot pour la fin ?

Cette année j’ai participé au salon et aux ateliers, mais pourquoi pas, une prochaine fois, assister aux conférences afin d’observer les démonstrations, obtenir des explications plus approfondies et découvrir des témoignages.
La conférence Big Data Paris fût une belle occasion de se mettre aux faits des nouveaux enjeux du secteur qui est en constante évolution mais également de découvrir le parc de solutions et technologies disponibles pour y répondre.

Précédent

Suivant

Share This

Vous avez aimé ce contenu ?

Partagez-le à votre réseau

Astek Mag Footer