La percée fulgurante du numérique a entrainé de profondes mutations dans la chaîne de gestion de l’information avec l’apparition des big data littéralement dénommées « données massives ». Presque toutes organisations institutionnelles (ministère, direction….) ou entreprises font, aujourd’hui, face à une diffusion exponentielle de données dans divers domaines d’activités. Que ce soit dans les secteurs de la santé, de l’agriculture, de l’éducation, de la pêche, de l’Elevage, des finances, des assurances ou de la bourse, les données sont produites à un rythme infernal au point que l’on se perde ou se faire manipuler avec l’apparition des fakes news (fausses informations).
Les nombreux moteurs de recherche qui font partie presque de nos préoccupations quotidiennes ont sensiblement contribué à la montée en puissance des données massives. S’y ajoutent les réseaux sociaux qui produisent également, en temps réel, des quantités importantes d’informations. Celles-ci deviennent tellement abondantes et souvent gratuites qu’il est difficile pour les usagers de faire reconnaître leur valeur. Le public ne perçoit plus clairement ce qui fait la valeur d’une donnée informationnelle dans la mesure où elle lui parvient en abondance, voire en surabondance.
Ces data sont particulièrement mises à la disposition du public par les secteurs digitalisés innovants tels que e-commerce, e-santé… Du coup l’obstacle ne réside plus dans l’accès à l’information, mais plutôt dans les stratégies à mettre en place pour les traiter et en tirer une valeur ajoutée. Cette forte intensité de production de données contraint à réfléchir sur de nouveaux modes de gestion et de gouvernance de l’information et du contenu. La nouvelle approche de gestion de l’Information va au-delà des normes classiques et traditionnelles qui consistaient à collecter, traiter et diffuser les données.
Aujourd’hui, pour faire face à la profusion de données, il apparaît nécessaire de faire recours aux instruments technologiques et informatiques tels que les logiciels de traitement (Excel, stata, Eviews…). La nouvelle approche de gestion doit consister à collecter et gérer les informations structurées et non structurées à partir d’une ou de plusieurs sources. L’autre défi reste également le contrôle, la structure, le traitement et la mise à disposition de l’information aux audiences.
Avec ces nouvelles méthodes de gestion, l’analyse des données est devenue plus pointue avec la machine Learning (apprentissage automatique) qui permet de faire de la prédiction, d’utiliser les algorithmes pour le traitement. Il y a aussi les outils qui permettent d’exécuter et d’analyser ces données comme python, langage R. Les institutions publiques comme privées productrices de données gagneraient à intégrer cet ensemble d’instruments innovants afin d’asseoir une meilleure gestion de l’information à l’ère de la data.