• +352 2877 5961
  • “Terre Verte“ 70, route de Belval L-4024 Esch sur Alzette

Big Data : tout est une question de méthode !

3rd octobre 2017

Contrairement à une idée répandue, l’intelligence du Big Data ne réside pas dans l’outil mais dans la méthode. La première étape consiste à bien définir son projet. Trop souvent, les entreprises se lancent tête baissée dans des projets de Big Data sans savoir où elles vont et ce qu’elles recherchent. Quelle finalité humaine voulez-vous donner à votre projet ? Va-t-il servir à améliorer les conditions de vie, faire mieux avec moins dans un souci d’écologie globale ou créer une meilleure collaboration entre les différents services de votre entreprise ? Quelle valeur ajoutée espérez-vous tirer de ce projet ? Quels sont vos objectifs concrets et quels indicateurs clés de performance allez-vous mettre en place ? En vous posant les bonnes questions, votre projet sera plus pertinent et plus efficace. Vous serez plus créatif et pourrez repérer plus facilement les sources de données disponibles – sur les places de marchés des données et dans les open data – à croiser avec les vôtres pour obtenir un effet de levier.

La réussite d’un projet de Big Data réside aussi dans les moyens que l’on se donne. Commencez par dédier à votre projet une équipe en mode agile. Pluridisciplinaire et auto-organisée, celle-ci découpera le projet en lots et travaillera en cycles courts validés à chaque fois par des tests. Faites-vous accompagner dans la durée par des data scientists. Ces spécialistes des données vous permettront, par leur regard extérieur et leur expérience, de mieux définir votre projet et son déroulement, donner du sens et de la cohérence à vos informations. Pensez à intégrer le data protection officer dès le départ du projet pour être certain que ce dernier sera conforme au Règlement européen sur la protection des données (GDPR). Ne négligez pas non plus l’importance du choix de l’architecture. Avez-vous pris en compte les trois V du Big Data, à savoir la vitesse, le volume et la variété des données ? Votre parc informatique sera-t-il capable de maintenir ses fonctionnalités et ses performances lors de la montée en charge ? Votre système informatique est-il évolutif ? Peut-il fonctionner avec d’autres produits, existants ou futurs, sans restriction d’accès ou de mise en œuvre ?

Il vaut toujours mieux préférer la qualité à la quantité. Ce principe vaut également pour les Big Data. Vérifier la qualité des données collectées est essentielle. Evitez l’effet GIGO (Garbage in Garbage Out) – si les données d’entrée sont mauvaises, les résultats le seront aussi – et adoptez une approche smart data qui consiste à extraire de l’immense masse de vos données celles qui sont les plus pertinentes pour votre projet. Dans la même logique, lors de la phase de traitement, passez de l’ETL – Extract, Transform, Load – à l’ELT – Extract, Load, Transform. En d’autres termes, développez un hub de données opérationnelles (data hub) qui va vous permettre d’avoir une vue unique et à 360° de toutes vos données, quels qu’en soient la provenance et le format. Veillez à ce que la phase de traitement reste flexible de manière à pouvoir modifier une des composantes du projet en cas de nécessité (par exemple, de nouveaux outils ou une nouvelle manière de penser le métier viennent de sortir). Pour gagner du temps et économiser les ressources, décentralisez les traitements et optimisez les algorithmes plutôt que de tout miser sur un puissant supercalculateur.

Dans tout projet de Big Data, l’utilisateur final doit avoir son mot à dire. Les données restituées après traitement n’auront une réelle valeur ajoutée que si ceux à qui elles sont destinées puissent y accéder et les utiliser facilement. C’est pourquoi il est important d’intégrer les utilisateurs finaux dans les choix en termes d’ergonomie, de lisibilité et de pertinence des données. Si ces conditions ne sont pas réunies, votre projet sera voué à l’échec.
Vous l’aurez compris à la lecture de cet article : les paramètres à prendre en compte pour la réussite d’un projet de Big Data sont nombreux et souvent difficiles à mettre en place sans le concours d’un spécialiste. Pensez-y avant de vous lancer. L’outil ne suffit pas, encore faut-il avoir la bonne méthode.

Le smart data en action : AdbA, en collaboration avec le LISER, organise une journée de conférence et d’ateliers le jeudi 16 novembre 2017 (places limitées).