Non-qualité des données : les risques et les coûts pour les entreprises

Non-qualité des données : les risques et les coûts pour les entreprises

Temps de lecture : 4 minutes

Le coût de la non-qualité des données pour les entreprises

Chaque jour, de nombreuses infrastructures collectent et exploitent les données pour développer leurs activités. Les sources d'information sont multiples, notamment avec le développement de l'open data. Ces ressources sont utilisées pour créer de la valeur, elles doivent donc être fiables. Cependant, les erreurs humaines et techniques peuvent amener les entreprises à utiliser des informations erronées. L’inexactitude de celles-ci entraîne de lourdes conséquences sur le chiffre d’affaires des entreprisesQuels sont les risques de la non-qualité des données ? Comment remédier à ce problème de qualité ? 





Qu'est-ce que la non-qualité des données ?


La qualité des données est le processus de maintien de la cohérence et de la fiabilité des valeurs détenues dans le système informatique d’une entreprise. Une information qualitative répond à plusieurs critères comme la validité, la précision, la cohérence, la complétude et la mise à jour. 

A l’inverse, la non-qualité des données représente l’absence de qualification de celles-ci. Elle regroupe l’indisponibilité, la non-conformité, la non-actualisation, la non-complétion et l’inexactitude des valeurs. On considère une information non-qualitative si elle est mal orthographiée, si elle comporte des doublons, ou encore si elle n’a pas été actualisée durant un certain temps.  

 

Une mauvaise qualité des données résulte de l’intervention de divers facteurs. La cause principale de la mauvaise qualité des données est l'intervention humaine. Une erreur de saisie dans le système informatique, la duplication dans les différents services ou encore le déplacement en dehors des applications métiers font partie des erreurs les plus fréquentes lors du traitement des données.  

Une mauvaise communication entre les équipes et l'absence d'un entrepôt de type datawarehouse peuvent amener à la création de doublons.Si une donnée est dupliquée, il est difficile de savoir quelle version est fiable.

 

Cependant, les erreurs menant à la non-qualité peuvent aussi être d’origine techniqueDes problèmes de sécurité ou encore une mauvaise migration peuvent endommager les données. Les erreurs de transfert ainsi que la détérioration de la donnée lors de sa conversion dans un autre format peuvent être fatales. 



Les risques liés à la non-qualité


Le data management est devenu indispensable pour les structures privées et publiques. Des informations exactes permettent de tirer pleinement parti de l’exploitation des ressources dont elles disposent. 

La non-qualité peut en revanche être un frein pour le développement et l’efficacité des structures. Une information erronée conduit inévitablement à des erreurs stratégiques 

 

Dans le domaine du commerce, une mauvaise qualité des données mène à une analyse faussée et impacte la prise de décision pour l’entreprise. La stratégie marketing cible les mauvaises personnes et entraîne des pertes importantes sur le chiffre d’affaire 

Par exemple, une erreur sur l’orthographe d’un nom ou une mauvaise actualisation d’une adresse postale peut entraîner le renvoi d'un courrier. Cette erreur constitue une coût en termes de temps, d’effort et de perte financière pour l’entreprise. Ce genre de mauvaises prises de décisions peuvent porter préjudice à l’image de l’entreprise et ternir la relation qu'elle entretient avec les clients. 

 

Plus grave encore, dans le domaine public la mauvaise qualité peut mener à des situations périlleusesPar exemple, une qualité bancale dans le milieu hospitalier peut conduire à des décisions médicales faussées et mettre en danger des patients. De même en termes de sécurité, des informations personnelles erronées peuvent porter préjudice aux personnes. 

L’évaluation des risques dépend du secteur d’activité. Néanmoins, il est possible de chiffrer les conséquences et les coûts de la non-qualité. 



Quelques chiffres sur la non-qualité


La non-qualité a des conséquences à la fois sur les salariés et sur les clients d’une infrastructure. Le service informatique voit sa productivité en baisse si les informations qui sont en sa possession sont erronées. Parfois il s’avère difficile de mesurer l’ampleur des dommages causés par des données de mauvaise qualité.  

Bien souvent, les sociétés sous-estiment la présence d’informations inexactes dans leurs database. Pourtant, une étude de 2017 menée par la Harvard Business Review révèle que seulement 3% des données en entreprise répondent aux standards de qualité (source n°1)Cela peut s’expliquer par l’absence de stratégie qualité dans le processus d’intégration des données au sein des infrastructures. 

 

D’après Forbes Insight, 84% des CEO s’inquiètent de la qualité de leurs données (source n°2). Cette inquiétude est justifiée par le coût que peuvent représenter les dommages causés par le manque de qualité. Selon une étude du MIT, la non-qualité occasionne une perte d'argenestimée entre 15% et 25% du chiffre d’affaire total d’une entreprise (source n°3). Cette perte représentant un quart des revenus s’explique des mauvais choix stratégiques opérés à partir d’informations erronées, mais aussi par le temps perdu par les services informatiques à traiter ces données inexactes.  

 

Une étude de CrowdFlower datant de 2016 estime que 80% des spécialistes de la data science déclarent perdre leur temps en traitant des données de mauvaise qualité (source n°4). En effet, si la structure n’a pas misé sur une stratégie data quality, les spécialistes doivent faire le tri entre les informations exactes et obsolètes. Ce tri fait baisser leur productivité en les retardant sur leur travail, ce qui pourrait être évité en utilisant une solution data quality. 


Télécharger votre guide pour tout savoir sur la qualité des données



Comment remédier à la non-qualité des données ?



La non-qualité des données n’est pas une fatalité pour les entreprises. Une société ayant recours à un outil de gestion de qualité adapté a la possibilité de tirer parti des valeurs qu’elle possède. 

Si votre entreprise rencontre ce genre de problème, il n’est pas trop tard pour penser à intégrer un logiciel adapté. La mise en place d’une stratégie data management peut résoudre l’ensemble des problèmes liés à la qualité.  

Il existe de nombreux outils de gestion de la qualité sur le marché. Talend Data Quality est une solution open source dédiée à l’amélioration de la qualité. Ce produit permet d’obtenir des données fiables et exploitables par les applications métier sans avoir recours au code. Parmi les fonctionnalités, on retrouve :  

Le nettoyage des données permettant de les dédupliquer et d’éliminer les erreurs.

L’enrichissement des données pour compléter les valeurs existantes à partir de database internes et externes.

Le profilage afin d’examiner les données pour éliminer d’éventuelles erreurs.

Le masquage permettant de protéger les informations sensibles conformément au RGPD.

La gouvernance des données afin d’encadrer la collecte et l’utilisation des ressources.

Un outil de monitoring de la data quality.


Vous vous questionnez sur la qualité de vos données ? 

 

Axysweb accompagne les PME et les ETI dans la qualification de leurs données depuis plus de 10 ans.
Notre équipe est composée de développeurs, chefs de projets et consultants certifiés Talend.
Nous assurons le conseil, la mise en place et le suivi de vos projets data quality.

Nos experts ont rédigé un guide pour tout savoir sur la qualification des données. 
Ce document est téléchargeable gratuitement, obtenez le votre !




Sources : 

n°1 : Thomas C. Redman, David Sammon & Tadhg Nagle, “Only 3% of data meets data basics Companies’s Data”, Harvard Business School, Septembre 2009

n°2 : Kale Panoho, “Council Post : The age of analytics and the importance of data”, Forbes, Octobre 2019 

n°3 : Thomas C. Redman, “Seizing Opportunity in Data Quality”, MIT Sloan, Novembre 2017 

n°4 : CrowdFlower, CrowdDlower Data Science Report, 2016