Les conditions d'un Open data efficace

 |   |  986  mots
(Crédits : DR)
La France est bien placée, du point de vue de l'Open data. Mais à quelles conditions peut-il tenir toutes ses promesses? Par Bruno Mathis, Engagement Manager, Sterwen

Le classement de la France en 3ème position, en 2014, du hit parade des politiques de « gouvernement ouvert » ou open data,  par l'Open Knowledge Foundation, est certainement mérité. Les pouvoirs publics, nationaux et locaux, ont en effet constitué en peu de temps un impressionnant catalogue de jeux de données.

Le moment est en revanche venu d'une réflexion approfondie sur la stratégie « Open Data » à mener. De ce point de vue, nos voisins britannique et néerlandais devancent la France d'un cran : les premiers sont plus focalisés sur l'exploitation d'un potentiel économique, les seconds se vantent même de réduire le nombre de leurs jeux de données (la pertinence devant primer sur la quantité). Si Etalab, l'agence de l'Etat qui administre data.gouv.fr, surveille déjà la propension  relative au téléchargement de chaque jeu de données, on manque encore de recul pour identifier lesquels ont donné lieu à d'authentiques innovations et créations d'emplois.

Un « Open Data » d'abord pragmatique

Pour qu'une politique d'ouverture des données publiques produise des bénéfices économiques, il ne faut pas s'enfermer dans les dogmes de la gratuité et de la transparence. Rendre gratuits des services jusqu'alors payants, c'est détruire de la valeur et éventuellement des emplois avant d'en créer. Si l'objectif de gratuité est louable du point du vue du citoyen et du consommateur, il ne saurait servir de critère d'appréciation d'une politique de données ouvertes tournée vers l'innovation et la croissance, c'est-à-dire vers la création de valeur. Que l'Insee, l'Institut Géographique National ou Infogreffe soumettent certaines de leurs données à redevance n'est pas sans fondement économique. Des données payantes mais réutilisables peuvent aussi être valorisées et se prêter à un modèle économique créateur d'emplois. A contrario, prôner la gratuité systématique des données revient à dissuader les pouvoirs publics de publier les jeux de données les plus coûteux à produire en ces temps de disette budgétaire.

L'illusion de la transparence totale

Quant au principe d'une transparence totale, il est illusoire : pour le gouvernement ou une collectivité locale, par exemple, publier le détail d'un budget en cours lui fait prendre le risque de se priver d'une marge de manœuvre dans l'action publique. Surtout, le principe de transparence s'arrête là où commence le droit à la vie privée. Il ne peut y avoir de transparence là où les données ouvertes se rapportent directement ou indirectement à une personne physique qui aurait refusé son consentement à leur publication ou invoqué son droit à l'oubli, en vertu de la loi « Informatique & Libertés ».

Un besoin de données plus "fraîches"

En revanche, il est deux critères d'analyse qui sont rarement mis en avant par les pouvoirs publics : la continuité de service et la "fraîcheur" des données.

Si une entreprise assoit son modèle économique sur l'exploitation de données ouvertes, elle s'attend à ce que ces données fassent l'objet d'un suivi dans le temps ; qu'elles soient corrigées, révisées ou supprimées si elles doivent l'être ; que leur structuration soit stable et que les changements éventuels de nomenclature soient annoncés et expliqués.

La fraîcheur relative de la donnée détermine aussi sa valeur. Une entreprise de BTP s'intéressera au budget de l'année en cours consacré à la construction de routes ou de lycées, mais n'achètera sans doute pas la même information sur le budget de cinq ans plus tôt... À cet égard, un certain nombre de jeux de données publiés aujourd'hui sur data.gouv.fr disposent d'une marge de progression...

De même que les innovations techniques naissent le plus souvent à la croisée des disciplines scientifiques, les données ouvertes prendront de la valeur par le croisement des fichiers. Et c'est là un domaine où l'État peut intervenir.

Organiser l'infrastructure des données ouvertes, rôle régalien de l'État

Il peut tout d'abord faire la promotion de tel ou tel format selon les types de données. Le format RDF, très générique, pourrait être proposé par défaut. En fixant la sémantique des données, il facilite leur croisement. Pour des usages spécialisés, un dialecte XML peut être préconisé : XBRL, par exemple, peut servir à la représentation des données comptables et financières, comme le font déjà les Américains.

Il peut ensuite inciter les contributeurs à recourir aux nomenclatures officielles chaque fois que c'est possible. Par exemple, tout fichier de données sur des communes devrait identifier celles-ci par leur code INSEE. Les organismes normalisateurs ont aussi un rôle à jouer. Il ne suffit pas que les communes détaillent leur budget par rubrique comptable ; il faut que le référentiel de comptabilité publique soit lui-même publié !

La valorisation des données ouvertes, nouveau champ de compétences

Il reste que le « valorisateur » de données ouvertes fait face à un double enjeu de traçabilité des données. Traçabilité des consentements, d'une part, pour les données personnelles, de façon à garantir que leur traitement de ces données s'inscrit bien dans la « finalité », au sens d'Informatique et Libertés, qui a emporté le consentement. Traçabilité des licences, d'autre part, chaque donnée élémentaire pouvant être frappée de redevance, d'interdiction de dissémination ou d'obligation de reconnaissance de paternité, selon leur type de licence de réutilisation.

Les startups qui se lancent actuellement dans le travail des données ouvertes pourront ensuite capitaliser sur ces nouvelles compétences techniques pour les appliquer dans le monde « fermé » des données d'entreprises, qu'on appelle déjà le « corporate linked data ». Les entreprises pourraient reprendre à leur compte les technologies et la gouvernance introduites par l'Open Data pour briser certains de leurs silos informatiques...

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 10/01/2015 à 5:38 :
"Rendre gratuits des services jusqu'alors payants, c'est détruire de la valeur"
Ceci est complètement hors sujet.
Il ne s'agit pas ici de services (payants ou gratuits) mais de données (libres d'accès et d'usage ou encombrées de barrières). Faire payer l'accès aux données avait un sens à l' époque où leur mise à disposition était coûteuse. Ce n'est plus le cas aujourd'hui. Quant aux restrictions limitant les usages et possibilités de redistribution des données, elles n'ont jamais eu aucun sens macro-économique.
a écrit le 09/01/2015 à 14:53 :
Je pense que la personne qui a écrit cet article n'y connait rien en matière de donnée:
1- RTB est tout sauf utilisable dans un contexte d'ouverture à des applications tierce
2- faire payer les données est évidemment un FREIN à leur exploitation !
3- Si l'exploitation de ces données n'est pas pour l'instant associée à de la création de valeur c'est plutôt parce que la politique économique invalidante de la France freine, ou empêche, la création de petites structures à risques ... Qui peut miser aujourd'hui sur une entreprise qui exploite les données public si soudainement on peut voir le risque de rendre ces même données (matière première) payante ?
4- Faire payer les données,ce n'est rien d'autre que de privilégier les acteurs en place plutôt que d'aider les créateurs.
a écrit le 08/01/2015 à 22:36 :
"Le format RDF, très générique, pourrait être proposé par défaut. En fixant la sémantique des données, il facilite leur croisement." : Trop de généricité dans l'écriture veut dire complexité à la lecture... ll n'y a pas de magie à un retour aux sources du type CSV : Ca rentre dans les ETL, les hadoop, les bases de données; en amont des croisements.
Quels logiciels supportent du RDF générique?

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :