OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 De la data au street art, l’expulsion s’expose http://owni.fr/2012/11/02/de-la-data-au-street-art-lexpulsion-sexpose/ http://owni.fr/2012/11/02/de-la-data-au-street-art-lexpulsion-sexpose/#comments Fri, 02 Nov 2012 10:30:07 +0000 Sabine Blanc http://owni.fr/?p=124583

Toujours pour rendre visibles les expulsés invisibles, nous diffusons nos motifs DANS LE MONDE RÉEL.

Le projet Expulsés.net, dont nous avions déjà parlé en grand bien, évolue pour sensibiliser davantage à la politique de reconduite à la frontière menée par la France en 2012.  Outre une base collectée auprès des association, en particulier RESF, détaillant le profil, partageable sur Twitter et Facebook, de chaque homme, femme ou enfant, Julien, le Bordelais à l’origine du projet a rajouté une couche IRL :

J’ai créé un kit de fabrication de figurines en argile reprenant les motifs du site. Il est produit avec une imprimante 3D et peut être reproduit et expédié sur demande à quiconque veut participer au projet. J’ai commencé à l’utiliser, à la plus grande surprise des passants qui emportent chez eux un petit totem mystérieux marqué d’une URL. Comme quoi la RepRap, ça sert pas qu’à faire des space invaders…

Cliquer ici pour voir la vidéo.

Il est aussi possible de télécharger des stickers. Julien donne le mode d’emploi pour que ce hack urbain soit efficace : “il est toujours préférable, afin de vous éviter divers ennuis et également pour éviter que votre installation ne soit vue que par l’agent d’entretien chargé de la détruire, de diffuser sur des emplacements sinon autorisés, au moins non-affectés à des usages précis. Les centres-villes sont pleins de vitrines condamnées, de barrières provisoires en contreplaqué, etc. Choisissez des modes de diffusion alternatifs, voire n’accrochez pas votre installation et laissez les passants l’emporter chez eux en petits morceaux (c’est clairement la meilleure solution avec les figurines en argile) !”

Record de 2011 battu

La semaine dernière, le ministre de l’Intérieur Manuel Valls a annoncé qu’il y aura “un peu plus” de reconduites à la frontière cette année qu’en 2011, battant le “record” de 33 000. Le gouvernement précédent avait affiché un objectif de 40 000 en 2012 en cas de réélection de Nicolas Sarkozy. La baisse des expulsions constatées depuis mars “n’est pas la résultante de consignes, mais découle de l’impossibilité de recourir à la garde à vue pour les sans-papiers depuis des décisions de la justice européenne et de la Cour de cassation”, selon une source du ministère citée par l’AFP.

“Il y a de la part de ce gouvernement, une volonté de mener une politique humaine, juste, mais très ferme sur les reconduites à la frontière”, a précise Manuel Valls, qui se dit opposé à une “politique du chiffre qui pèse énormément sur les forces de l’ordre. Elle amène à des comportements, à des tensions qui ne conduisent pas à l’efficacité.”

Le changement de gouvernement n’est donc pas rendu caduc Expulsés.net. Julien prévoit d’ailleurs de faire une installation de grande envergure avec plusieurs centaines de figurines à Bordeaux en novembre.


Images via expulsés.net

]]>
http://owni.fr/2012/11/02/de-la-data-au-street-art-lexpulsion-sexpose/feed/ 7
La Justice condamne sa base de données http://owni.fr/2012/10/01/la-justice-condamne-sa-base-de-donnees/ http://owni.fr/2012/10/01/la-justice-condamne-sa-base-de-donnees/#comments Mon, 01 Oct 2012 13:48:11 +0000 Guillaume Dasquié http://owni.fr/?p=121042 Owni sur l'existence d'une base de données autorisant les interventions politiques dans les dossiers judiciaires, le ministère s'engage à modifier l'arrêté qui avait créé cette vilaine machine.]]>

La garde des Sceaux Christiane Taubira n’aura pas longtemps hésité quant aux suites à donner à l’arrêté du 11 avril 2012 – publié au Journal Officiel du 8 mai 2012, deux jours après la présidentielle – officialisant une base de données permettant de gérer les interventions du cabinet ministériel dans les dossiers d’instruction. Ce texte sera modifié, nous assure le ministère.

La Justice ne se signalera plus

La Justice ne se signalera plus

La ministre de la Justice veut en finir avec les "affaires signalées", donc avec les interventions politiques dans les ...

Installée sur les ordinateurs de la Direction des affaires criminelles et des grâces, au sein du ministère de la Justice, cette base de données permet aux membres du cabinet d’intervenir dans des enquêtes judiciaires sur la base de critères individuels – donc à partir du nom des victimes ou des personnes mises en cause, qu’il s’agisse d’adversaires ou d’alliés politiques – comme notre article du 21 septembre dernier (“La Justice ne se signalera plus”) le montrait.

Cette base de données, répondant à l’appellation très rassurante de Bureau d’ordre de l’action publique et des victimes, contredit de manière manifeste la circulaire de Christiane Taubira qui fixe un objectif de neutralité et d’impartialité. Un paradoxe qui n’échappe pas à son cabinet. Pierre Rancé, porte-parole de la Garde des Sceaux nous a confié :

Le ministère estime qu’il faut modifier cet arrêté consacré à cette base de données, et revoir précisément la nature des informations qui y sont stockées, car en l’état cet arrêté, signé quelques semaines avant les échéances électorales, contredit la circulaire ministérielle du 19 septembre notamment sur la question des instructions individuelles.

L’arrêté rendu public le 8 mai 2012, signé par l’ancien ministre Michel Mercier, conférait une légitimité réglementaire à un système qui existait depuis 1994 – et dont les fonctionnalités ont réjoui la plupart de ses prédécesseurs. Dans le jargon du ministère, les magistrats l’appellent la “Base des données des affaires signalées”.

D’un point de vue très théorique, les “affaires signalées” représentent des délits, des crimes ou plus généralement des procédures, dont les caractéristiques soulèvent des problèmes de droit ou mettent en évidence la nécessité de modifier la politique pénale.

À titre d’exemple, des sources proches de magistrats évoquent la récente tuerie de Chevaline, devenue une “affaire signalée” en raison des difficultés particulières de l’enquête.

Le mois dernier, 18 notes de synthèse et rapports divers ont été échangés avec les procureurs intervenant sur ce dossier, afin de contourner ces difficultés et d’en tenir compte pour qu’elles ne se présentent pas à l’avenir, dans d’autres affaires du même type.

Cependant, telle que la base de données fonctionne actuellement, elle permet aussi de lancer des requêtes sur des noms de personnes ou de sociétés citées dans les dizaines de procédures signalées chaque année. Afin notamment d’influencer des procureurs généraux pour que le glaive de la justice s’alourdisse ou s’allège, selon les individus. Une pratique condamnée à plusieurs reprises par le Syndicat de la magistrature.

Dans sa circulaire qui fixe le cadre de sa politique pour les prochains mois, la ministre de la Justice entend rompre avec de telles habitudes, comme elle l’écrit :

Afin de mettre fin à toute suspicion d’intervention inappropriée du ministre de la Justice ou d’un autre membre de l’exécutif dans l’exercice de l’action publique, je n’ai pas adressé d’instructions individuelles aux magistrats du parquet depuis ma prise de fonction (…) Il appartient en effet au garde des Sceaux, ministre de la Justice, de définir la politique pénale au travers d’instructions générales et impersonnelles et aux magistrats du parquet d’exercer l’action publique. L’impartialité du parquet lui sera rendue par cette politique.

Intention louable. Qui pourrait connaître un heureux développement avec la modification de l’arrêté du 11 avril, et, surtout, avec une plus grande indépendance (d’esprit) des procureurs à l’égard des fonctionnaires de la Direction des affaires criminelles et des grâces.

]]>
http://owni.fr/2012/10/01/la-justice-condamne-sa-base-de-donnees/feed/ 0
Le Parlement veut ficher les honnêtes gens http://owni.fr/2012/01/18/le-fichier-des-gens-honnetes-sera-policier/ http://owni.fr/2012/01/18/le-fichier-des-gens-honnetes-sera-policier/#comments Wed, 18 Jan 2012 10:10:10 +0000 Jean Marc Manach http://owni.fr/?p=94063

Ficher 60 millions d’innocents pour les protéger de quelques milliers de coupables – afin que les méchants n’usurpent pas l’identité des gentils, et, plus prosaïquement, afin de garnir les tiroirs caisses des fabricants. Le projet a un petit nom : le fichier des “gens honnêtes (sic).

C’est le grand chantier sécuritaire de Claude Guéant, mais sur lequel sénateurs et députés expriment maintenant de profonds désaccords, mettant en évidence les possibles dérives de cette proposition de loi sur la protection de l’identité, censée instaurer une nouvelle carte d’identité biométrique. La semaine dernière, le 12 janvier, une poignée de députés UMP a introduit un amendement permettant de multiples applications policières.

Vers un fichage généralisé des “gens honnêtes”

Vers un fichage généralisé des “gens honnêtes”

Pour lutter contre l'usurpation d'identité, qui représente moins de 15 000 faits constatés chaque année, le projet de ...

Un an exactement après son premier examen, plusieurs sénateurs UMP refusent catégoriquement de voir leur nom associé à ce fichier administratif qui, sous l’impulsion de Guéant et du lobby des industriels de l’empreinte digitale, a pris entre-temps les allures d’un fichier policier.

Députés et sénateurs sont tous d’accord pour ficher les noms, prénoms, adresses, tailles et couleurs des yeux, empreintes digitales et photographies de tous les détenteurs de cartes d’identité soit, à terme, 45 à 60 millions de Français. Mais, alors que les sénateurs veulent empêcher tout détournement de sa finalité administrative première, et donc empêcher une exploitation policière, les députés voudraient quant à eux pouvoir l’utiliser en matière de police judiciaire.

Claude Guéant, en première lecture à l’Assemblée, avait en effet expliqué, en juillet 2011, qu’il ne voyait pas pourquoi on empêcherait policiers et magistrats de l’utiliser dans leurs enquêtes, laissant entendre qu’à terme, les systèmes de reconnaissance biométrique faciale permettraient ainsi et par exemple d’identifier des individus filmés par des caméras de vidéosurveillance.

Christian Vanneste, de son côté, avait proposé de s’en servir pour mieux “contrôler les flux migratoires“. 7 députés de la majorité, contre 4 de l’opposition, avaient alors voté pour la possibilité d’exploitation policière du fichier.

En octobre 2011, lors de son deuxième passage au Sénat, François Pillet, le rapporteur (UMP) de la proposition de loi, avait de son côté qualifié le fichier de “bombe à retardement pour les libertés publiques“, et expliqué que, “démocrates soucieux des droits protégeant les libertés publiques, nous ne pouvons pas laisser derrière nous un fichier que, dans l’avenir, d’autres pourront transformer en outil dangereux et liberticide” :

« Que pourraient alors dire les victimes en nous visant ? Ils avaient identifié les risques et ils ne nous en ont pas protégés. Monsieur le Ministre, je ne veux pas qu’à ce fichier, ils puissent alors donner un nom, le vôtre, le mien ou le nôtre. »

Fin novembre, un arrêté paru au Journal Officiel crée un nouveau fichier policier “relatif à la lutte contre la fraude documentaire et l’usurpation d’identité” et visant, précisément, à ficher l’”état civil réel ou supposé (nom, prénom, date et lieu de naissance, sexe, adresses postale et électronique, coordonnées téléphoniques, filiation, nationalité, photographie, signature)” des auteurs et victimes présumés d’usurpation d’identité. Ce qui n’a pas empêché Claude Guéant de défendre, auprès des députés, la possibilité d’exploitation policière du fichier des “gens honnêtes“.

Cependant, de retour à l’Assemblée le 13 décembre 2011, la proposition de loi fut modifiée pour ne plus garder que l’empreinte de deux doigts, et non plus de huit, afin de se conformer à une récente censure du Conseil d’Etat visant le nombre d’empreintes dans le passeport biométrique.

Afin de répondre aux observations critiques de la CNIL, le texte écartait également la reconnaissance biométrique faciale, la possibilité de croiser la base de données avec d’autres fichiers administratifs ou policiers, et limitait son exploitation policière à la recherche de corps de victimes de catastrophes collectives et naturelles, ainsi qu’à une dizaine d’infractions allant de l’usurpation d’identité à l’”atteinte aux services spécialisés de renseignement” en passant par l’entrave à l’exercice de la justice.

La commission mixte paritaire, réunie le 10 janvier dernier et censée trouver un terrain d’entente entre les deux chambres, n’a pas permis de trancher le différent, les sénateurs refusant de laisser la porte ouverte à d’autres formes d’exploitation policières du fichier.

Protéger les gens honnêtes de Big Brother

Le texte aurait du repasser le 19 à l’Assemblée. Signe de l’insistance gouvernementale, il a été réexaminé le jeudi 12 janvier au matin, au grand dam des députés de l’opposition qui, à l’instar de député Marc Dolez, co-fondateur du Parti de Gauche et secrétaire de la commission des lois, n’ont été prévenu de la discussion que la veille au soir :

Cette précipitation traduit, selon nous, la volonté de passage en force du Gouvernement. Qu’il soit utilisé à des fins de gestion administrative ou à des fins de police judiciaire, nous estimons dangereux pour les libertés publiques de mettre en place un tel fichier généralisé de la population.

Serge Blisko, député socialiste, rappela quant à lui que “d’autres grands pays européens n’ont pas fait le choix que vous voulez imposer au Parlement, précise Plisko, et le système que vous voulez mettre en place serait unique en Europe par son étendue et ses capacités intrusives” :

Certes la loi prévoit des limitations par rapport à vos intentions d’origine, mais rien ne nous dit, monsieur le rapporteur, qu’appelé demain à de hautes fonctions, vous n’ayez envie d’étendre votre système à d’autres infractions, pour en faire le Big Brother que je décrivais.

Le fichier d’empreinte génétique (FNAEG), conçu initialement pour ne ficher que les seuls criminels sexuels récidivistes, a ainsi été étendu depuis à la quasi-totalité des personnes simplement soupçonnées de n’importe quel crime ou délit. Aujourd’hui, il fiche les empreintes génétiques de près de 2 millions de personnalités, dont un quart seulement a été condamné par la Justice : les 3/4 des fichés n’ont été que “soupçonnés” et sont donc toujours (soit-disant) présumés innocents.

En route vers un système “beaucoup plus intrusif”

Au cœur de cette polémique entre les deux chambres, la notion de “lien faible“, brevetée par Morpho, n° 1 mondial des empreintes digitales, et qui permet d’authentifier une personne en empêchant toute exploitation de ses données personnelles, et donc toute forme d’exploitation policière du fichier.

Or, comme l’a rappelé Philippe Goujon, député UMP et rapporteur de la proposition de loi, ““son inventeur lui-même le dénigre, le qualifiant de « système dégradé » (qui) n’avait été adopté par aucun pays au monde, Israël y ayant renoncé à cause de son manque de fiabilité“, et que, cerise sur le gâteau, les industriels du Groupement professionnel des industries de composants et de systèmes électroniques (GIXEL) ne veulent surtout pas en entendre parler :

Les fabricants regroupés au sein du GIXEL ne veulent pas développer un tel fichier, car cela les pénaliserait vis-à-vis de la concurrence internationale.

Il y a fort à parier que tous les autres pays européens adopteront un autre système, beaucoup plus intrusif.

Lobbying pour ficher les bons Français

Lobbying pour ficher les bons Français

Dans une relative discrétion, l'idée de créer un fichier de 45 à 60 millions de Français honnêtes a reçu un accueil ...

Ce pour quoi les industriels ne voient aucun intérêt à devoir créer un système qu’ils ne pourraient revendre nulle part ailleurs… Comme l’enquête d’OWNI l’avait souligné, le rapporteur de la proposition de loi au Sénat avait ainsi auditionné pas moins de 14 représentants du GIXEL, contre deux représentants seulement du ministère de la justice, et six du ministère de l’Intérieur…

C’est ainsi que ce 12 janvier 2012, à 12 heures, six députés de la majorité ont donc réintroduit la notion de “lien fort“, qui autorise l’exploitation policière des données personnelles dans le fichier des “gens honnêtes“, face à trois députés de l’opposition. La commission mixte paritaire n’ayant pas réussi à opter pour un texte de compromis, le texte, tel qu’il a été amendé par les députés la semaine passée, devra de nouveau passer au Sénat, avant d’être adopté, dans sa version définitive, à l’Assemblée…

Virginie Klès, rapporteur (PS) du texte de loi au Sénat, déplore la léthargie de l’opinion publique et des médias : “je ne sais pas si les gens se rendent compte, ou bien si c’est parce que le gouvernement profite du brouhaha autour de la perte du triple A et des échéances présidentielles pour faire passer cette proposition de loi, mais c’est très très dangereux, on crée là quelque chose de très liberticide, et sans raison valable” :

Si les citoyens se réveillaient vraiment et alpaguaient leurs députés, qui font montre de beaucoup d’absentéisme sur le sujet, mais dont les sièges vont bientôt être renouvelés, peut-être qu’on pourrait faire bouger les choses

A l’exception notable des articles (payants) du site d’informations spécialisées dans la sécurité AISG, d’un article sur PCInpact, d’un billet sur le blog de l’avocat Bensoussan (hébergé par LeFigaro.fr), et d’une dépêche AFP reprise sur LExpress.fr, aucun média n’en a parlé.

Ce silence médiatique est d’autant plus surprenant que c’est précisément suite au scandale issu de la parution d’un article dans Le Monde en 1974, Safari et la chasse aux Français, qui révélait que le ministère de l’Intérieur voulait interconnecter tous les fichiers administratifs français, que la loi informatique et libertés fut adoptée.

En tout état de cause, tout porte à croire que le fichier des “gens honnêtes” pourra donc bel et bien être exploité en matière de police judiciaire. Et rien n’empêchera que, à l’image du FNAEG, ses conditions d’exploitation policières soient à l’avenir élargies dans le futur, et puisse servir, par exemple, pour identifier des individus à partir d’images de caméras de “vidéoprotection“, ou encore pour “contrôler les flux d’immigration“.

De même que le passeport biométrique a finalement été censuré, il est fort possible que ce fichier des “gens honnêtes” soit lui aussi retoqué, par le Conseil Constitutionnel, le Conseil d’Etat ou encore la Cour européenne des droits de l’homme. Les textes fondateurs régissant la présomption d’innocence, la protection de la vie privée ainsi que les droits de l’homme excluent en effet la possibilité de créer des fichiers policiers d’innocents…

MaJ : la proposition de loi sur la protection de l’identité passera en troisième lecture, au Sénat, le 25 janvier à 14h30. La Conférence des Présidents “a fixé à une heure la durée globale du temps dont disposeront, dans la discussion générale, les orateurs des groupes ou ne figurant sur la liste d’aucun groupe“. Elle devra ensuite être redébattue, et définitivement adoptée, à l’Assemblée.


Photos par D’Arcy Norman et Andy Buscemi sous licence CC via Flickr remixées par Ophelia Noor pour Owni.
Illustration issue de la précédente Une #fichage par Marion Boucharlat pour Owni

]]>
http://owni.fr/2012/01/18/le-fichier-des-gens-honnetes-sera-policier/feed/ 0
Vers un fichage généralisé des “gens honnêtes” http://owni.fr/2011/07/05/carte-identite-biometrique-fichage-generalise-gens-honnetes/ http://owni.fr/2011/07/05/carte-identite-biometrique-fichage-generalise-gens-honnetes/#comments Tue, 05 Jul 2011 14:44:35 +0000 Jean Marc Manach http://owni.fr/?p=72829

La future carte d’identité, débattue au Parlement ce 7 juillet, reposera sur la création d’un “fichier des gens honnêtes” (sic) répertoriant les noms, prénoms, sexe, dates et lieux de naissance, adresses, tailles et couleurs des yeux, empreintes digitales et photographies de 45 millions de Français voire, à terme, de l’ensemble de la population.

L’expression “fichier des gens honnêtes” a été utilisée par François Pillet, sénateur (UMP) du Cher et rapporteur de la proposition de loi sur la protection de l’identité (voir le dossier), adoptée en première lecture au Sénat, et qui sera discutée à l’Assemblée le 6 juillet:

Pour atteindre l’objectif du texte, il faut une base centralisant les données. Or cette base serait unique dans l’histoire de notre pays au regard de sa taille, puisqu’elle porterait sur 45 millions d’individus, si elle existait à l’heure actuelle. À terme, elle est susceptible de concerner 60 millions de Français. Ce sera de surcroît le premier « fichier des gens honnêtes ».

Ce fichier n’a donc pas d’équivalent. Toutes les personnes auditionnées ont mis en garde, plus ou moins expressément, contre son usage à d’autres fins que la lutte contre l’usurpation d’identité, ce qui présenterait des risques pour les libertés publiques.

Le gouvernement cherche depuis 10 ans à moderniser la carte d’identité, afin d’y rajouter une “puce électronique sécurisée“, et de centraliser dans une base de données les identifiants, notamment biométriques, des personnes fichées. Ce qui pose de nombreux problèmes techniques, juridiques et politiques. Au point, comme le reconnait François Pillet, qu’”aucun des (trois) projets de loi rédigés sur le sujet par les gouvernements successifs n’ont finalement été présentés au Parlement“.

“Zorro n’étant pas disponible…”

Le projet de carte INES (pour Identité Nationale Électronique Sécurisée), sévèrement critiqué par le Forum des droits de l’Internet et par la CNIL, avait ainsi été abandonné en 2005. Il s’agissait alors de lutter contre le terrorisme et l’immigration irrégulière, comme l’expliqua alors Dominique de Villepin aux députés, dans une formule toute en sobriété :

L’usage de faux papiers coûte en outre plusieurs milliards à la nation chaque année. Pour régler le problème, nous pouvions bien sûr nous adresser à Zorro (…) Mais il n’était pas disponible, et c’est pour cela que nous avons sollicité INES.

Dans un article paru dans un ouvrage collectif passionnant, L’identification biométrique, Clément Lacouette-Fougère, auteur d’un mémoire de recherche sur INES, le qualifie de “solution à la recherche de problèmes (…) électoralement risqué et techniquement instable“.

A l’époque, le ministère de l’Intérieur voulait pouvoir s’en servir afin d’identifier les propriétaires d’empreintes digitales non fichés au Fichier automatisé des empreintes digitales (FAED), qui répertorie 3,6 millions d’individus, mais aussi 212 000 traces non identifiées. Mais la CNIL notamment s’y était fermement opposée.

Peinant à apporter des preuves tangibles du lien entre le rôle des fraudes à l’identité et la lutte contre le terrorisme, mis à mal par le débat public, souffrant de nombreuses incohérences bureaucratiques, les porteurs du projet délaissèrent alors l’argument sécuritaire, et cherchèrent d’autres justifications.

On avait ainsi vu les deux policiers responsables du projet reconnaître qu’ils n’avaient pas, eux-mêmes, de carte d’identité (elle n’est pas obligatoire), tout en vantant les mérites du projet de carte d’identité sécurisée au motif que cela allait favoriser… le commerce électronique :

A quoi sert une carte d’identité ? A lutter contre le terrorisme ? Oui, un petit peu, mais ce n’est pas la seule raison, et ce n’est pas la première.

A votre avis, combien de lettres recommandées sont envoyées en France chaque année ? 240 millions. Combien de temps perdez-vous à aller chercher une lettre recommandée à la Poste ? L’année prochaine, tous les ordinateurs seront livrés avec un lecteur de carte. Il n’y aura plus à se déplacer.

Cinq ans plus tard, les ordinateurs ne sont toujours pas livrés avec un lecteur de carte. Mais le nouveau projet en reprend l’idée, avec une seconde puce, facultative et commerciale, “portant la signature électronique de la personne, autorisant l’authentification à distance, ce qui remplacerait le recours à des sociétés commerciales“, comme l’a expliqué Claude Guéant :

Concrètement, l’authentification par le second composant de la carte s’effectuera via un boîtier relié à l’ordinateur personnel, dont les utilisateurs intéressés par ce service devront se doter.

En 2001, un projet similaire, Cyber-comm, lecteur personnel de carte à puce censé “envahir le marché et faire entrer massivement la France dans l’ère du commerce électronique sécurisé“, avait fait un énorme flop, et l’on peut raisonnablement douter du fait que les internautes dépenseront plusieurs dizaines d’euros dans de tels boîtiers alors qu’il existe de nombreux mécanismes de paiement et d’identification sécurisés.

“L’objectif annoncé est, par essence, inaccessible”

Les précédents argumentaires censés justifier la carte d’identité biométrique ayant échoué, la proposition de loi de Jean-René Lecerf (UMP) vise aujourd’hui officiellement à lutter contre les usurpations d’identité qui, d’après un sondage du Credoc (Centre de recherche pour l’étude et l’observation des conditions de vie), toucherait 4,2% de la population française :

Cela représente plus de 210 00 cas avérés chaque année, un chiffre plus important que les cambriolages à domicile (150 000) et que les vols d’automobile (130 000)

François Pillet, le rapporteur de la proposition de loi, souligne cela dit que ces données “n’ont pas été scientifiquement établies, le chiffre de 210 000 cas (ayant) été obtenu en suivant une méthode unanimement critiquée (et) d’une fiabilité douteuse“, et à la demande d’une société spécialisée dans les broyeuses de documents, et qui avait donc intérêt à gonfler les chiffres de l’usurpation d’identité.

L’Observatoire national de la délinquance et de la réponse pénale a, quant à lui, répertorié, en 2009, 13 900 faits de fraude documentaire ou d’identité, quand la direction des affaires criminelles et des grâces répertoriait de son côté 11 627 condamnations la même année, bien loin donc des 210 000 cas avancés par le Credoc.

Alain Bauer, conseiller de Nicolas Sarkozy pour ce qui est des questions de sécurité, et président de l’Observatoire national de la délinquance, avait d’ailleurs lui-même émis des doutes (.pdf) lorsqu’il avait été auditionné par la CNIL, en 2005, rappelant notamment que la fraude à l’identité porte essentiellement sur le permis de conduire et les passeports et qu’”en revanche, celle-ci existe quantitativement très peu dans les affaires de terrorisme et de crimes organisés (à l’exception de la traite des êtres humains)” :

Quant à l’objectif annoncé d’éradiquer la contrefaçon des pièces d’identité, j’estime qu’il est, par essence, inaccessible. En effet, malgré tous les raffinements technologiques utilisés, je suis convaincu que la nouvelle carte d’identité sera contrefaite dans un futur plus ou moins proche, car les faussaires s’adaptent toujours aux nouveaux moyens technologiques.

Un dispositif contraire à la convention européenne des droits de l’homme ?

L’objectif du gouvernement est aujourd’hui de fusionner les bases de données du passeport biométrique et de la carte d’identité. En 2007, dans son avis sur le passeport biométrique, la CNIL avait dénoncé le recours à une base centralisée pour conserver les données, ainsi que le recueil de 8 empreintes digitales, là où les autres pays européens n’en exigent que deux :

Si légitimes soient-elles, les finalités invoquées ne justifient pas la conservation, au plan national, de données biométriques telles que les empreintes digitales et que les traitements ainsi mis en œuvre seraient de nature à porter une atteinte excessive à la liberté individuelle.

Vertement critiquée par les associations de défense des droits de l’homme, la base de données des empreintes digitales du passeport biométrique avait fait l’objet, en 2008, de quatre recours devant le Conseil d’État. En juin 2010, le rapporteur public avait recommandé l’annulation de la collecte de 6 des 8 empreintes digitales, mais pas l’annulation de la création d’une base centralisée.

A ce jour le Conseil d’État ne s’est toujours pas prononcé définitivement sur la licéité de la base de données, et du nombre d’empreintes susceptibles d’y être stockées. Mais c’est probablement, estime l’opposition, pour pouvoir précisément contourner l’avis du Conseil d’État, et éviter d’avoir à consulter la CNIL, que le projet revient aujourd’hui sous la forme d’une proposition de loi, déposée non par le gouvernement, mais par un sénateur.

“Nous ne voulons pas laisser derrière nous une bombe”

Le problème se pose aussi à l’échelle européenne : la Cour européenne des droits de l’homme a ainsi condamné la Grande-Bretagne pour avoir conservé les empreintes ADN d’innocents dans le fichier génétique de police britannique, au motif, rappelle Éliane Assassi, sénatrice communiste, que l’ensemble des citoyens ne peuvent être traitées de la même manière que les personnes coupables ou inculpées.

Soucieux de respecter la convention européenne des droits de l’homme, les sénateurs, qui ont adopté le texte en première lecture le 31 mai dernier, ont dès lors voulu éviter tout détournement de la base de données, et notamment toute utilisation en matière de police judiciaire afin de rendre impossible l’identification d’un individu à partir de ses empreintes digitales ou de sa photographie, comme l’a expliqué François Pillet :

Nous ne voulons pas laisser derrière nous une bombe : c’est pourquoi nous créons un fichier qui ne peut être modifié.

A cette fin, ils ont proposé de rajouter des “garanties matérielles (rendant) techniquement impossibles un usage du fichier différent de celui qui a été originellement prévu“, à savoir lutter contre l’usurpation d’identité, et ont proposé de recourir à une technologie dite “à liens faibles“, qui a notamment fait l’objet d’un brevet déposé par Sagem. Concrètement, ces “liens faibles” permettent de s’assurer que la personne figure bien dans le fichier, mais empêchent de l’identifier à partir de ses données personnelles telles que ses empreintes digitales ou de sa photo.

Le gouvernement, tout comme Philippe Goujon, rapporteur de la proposition de loi à l’Assemblée, sont fermement opposés à ce dispositif, au motif qu’”en cas d’usurpation d’identité, il sera impossible d’identifier l’usurpateur, à moins de faire une enquête longue et coûteuse” :

Si un usurpateur tentait de faire établir un document d’identité avant son titulaire légitime, il faudrait enquêter sur plusieurs centaines, voire plusieurs milliers de personnes pour le démasquer, ce qui constituerait une atteinte à la vie privée bien plus grave que le recours à une identification directe du fraudeur.

En outre, l’architecture du fichier central conçue par le Sénat rendra celui-ci inutilisable pour une recherche criminelle. Or, j’estime qu’une telle recherche, qui n’interviendrait que sur réquisition judiciaire, doit être possible.

Pour Delphine Batho, députée socialiste, “le véritable objectif de ce texte, c’est le fichage biométrique de la totalité de la population à des fins de lutte contre la délinquance” :

Il existe un fichier permettant d’identifier les fraudeurs : le fichier automatisé des empreintes digitales (FAED), qui recense 3 millions d’individus, soit 5 % de la population, et qui a permis de détecter 61 273 usurpations d’identité. Cet outil me semble suffisant.

Les auteurs de cette proposition de loi estiment, pour résumer, que pour détecter un fraudeur, il faut ficher tout le monde.

Pour Sandrine Mazetier, députée PS, la proposition de loi bafouerait également les principes de finalité et de proportionnalité “pierre angulaire de la loi Informatique et libertés” :

Il semble totalement disproportionné de mettre en place un fichage généralisé de la population française pour lutter contre 15 000 faits d’usurpation d’identité constatés par la police.

Disproportionné, peut-être. Mais il en va aussi des intérêts souverains de l’économie française : Morpho, fialiale de Safran, qui avait déjà emporté l’appel d’offres du passeport biométrique, est en effet le “n°1 mondial de l’empreinte digitale“, et n°1 mondial des titres d’identité biométrique sécurisés…

NB : comme le rappelle très opportunément Pierrick en commentaire, la carte d’identité n’est pas obligatoire. Si on vous demande de justifier de votre identité, voilà ce qu’il vous faut savoir : La carte d’identité n’est pas un document obligatoire. L’identité peut être justifiée par un autre titre (passeport ou permis de conduire), une autre pièce (document d’état civil indiquant la filiation, livret militaire, carte d’électeur ou de sécurité sociale), voire un témoignage.


Illustrations CC FlickR par pictalogue, Pink Sherbet Photography, Special Collections at Wofford College

Voir aussi :
- Fichons bien, fichons français !
- Morpho, n° 1 mondial de l’empreinte digitale

]]>
http://owni.fr/2011/07/05/carte-identite-biometrique-fichage-generalise-gens-honnetes/feed/ 62
[APP] Mémorial des morts aux frontières de l’Europe http://owni.fr/2011/02/18/app-la-carte-des-morts-aux-frontieres-de-leurope/ http://owni.fr/2011/02/18/app-la-carte-des-morts-aux-frontieres-de-leurope/#comments Fri, 18 Feb 2011 13:08:28 +0000 Jean Marc Manach http://owni.fr/?p=47365

Plus de 5 000 réfugiés ont débarqué à Lampedusa, île italienne située entre Malte et la Tunisie, depuis le début de l’année. La situation est d’autant plus critique, souligne l’Organisation internationale pour les migrations (OIM), que l’île, forte de 5 000 habitants, ne peut a priori accueillir que 800 réfugiés.

Dans un communiqué, United for Intercultural Action, une ONG de défense des droits des migrants et des réfugiés, rappelle de son côté que depuis 1993, 857 réfugiés au moins sont morts en tentant de rejoindre Lampedusa. Depuis le début de l’année, United a d’ores et déjà recensé 6 morts, et 31 disparus, un bilan qui risque fort de s’aggraver, si l’on en croit ce qui s’est passé le 11 février dernier :

Des garde-côtes tunisiens ont été vus en train d’éperonner délibérément un bateau ironiquement nommé “Liberté 302″ et transportant 120 passagers jusqu’à le scinder en deux; les corps de 5 migrants ont à ce jour été récupérés, mais il en manque encore des dizaines.

United, qui compile depuis 1992 articles de presse et signalements effectués par des ONG, journalistes, universitaires, sources gouvernementales, etc., a dénombré plus de 14 000 “morts aux frontières de l’Europe” depuis 1988.

La majeure partie, plus de 11 000, sont morts avant même d’entrer sur le territoire européen, dont 4 696 en Afrique. Près de 10 000 sont morts noyés, dans la Méditerranée, lors du naufrage de leurs bateaux, mis à l’eau par leurs passeurs, en pleine mer ou à l’approche de la côte, ou fuyant les policiers qui cherchaient à les interpeller.

  • 864 sont morts de soif ou de faim, la majorité, perdue dans le désert, ou dans une embarcation à la dérive,
  • près de 300 sont morts étouffés dans un camion,
  • 254 ont été assassinés,
  • plus de 250 écrasés en traversant une route ou en tombant d’un camion,
  • 215 sont morts de froid,
  • 138 des 335 suicidés ont opté pour la pendaison, 4 sont morts en grève de la faim et 33 par immolation.

No Border, de son côté, en répertorie 3899, mais Fortress Europe, dont la base de données remonte à 1988, 14 921, dont 10 952 en mer, et 1 691 dans le désert du Sahara…

Cette disparité de chiffres montre bien qu’il est impossible de recenser réellement la totalité des migrants morts pour avoir voulu trouver refuge en Europe. United estime d’ailleurs que le chiffre réel pourrait être trois fois plus important.

14 000 en Europe, plus 4 500 aux Comores

Pour s’en convaincre, il suffit de voir qu’United ne recense ainsi que quelques dizaines de morts à Mayotte, là où Fortress Europe en répertorie de son côté 629, noyés pour la plupart en voulant passer des Comores à la collectivité d’outre-mer française, et alors même qu’un rapport sénatorial datant de 2001 “estime à 4.000 le nombre de morts dus à des naufrages de Kwasa-kwasa, ces barques souvent surchargées servant à transporter des clandestins…” le site Stop Kwassa avançant, de son côté, le chiffre de 4500 morts noyés.

D’après un rapport [pdf] de la Cour des comptes, la situation se serait depuis quelque peu améliorée : “quatre naufrages par an en moyenne depuis 2007 sont à déplorer. Les disparitions et décès en mer sont élevés quoique en diminution (64 en 2007, 47 en 2008, 35 en 2009)“. Mais le rapport note cependant que “cette forte pression migratoire risque de s’accroître encore sous l’effet de la départementalisation“.

De plus, nombreux sont les morts qui ne sont pas répertoriés, parce que leurs corps n’ont pas été retrouvés, ou que leur mort a été cachée, comme ce fut le cas lors d’une terrible tempête dans la nuit de Noël 1997, où 283 personnes périrent noyées au large de la Sicile après que leur rafiot fut éperonné par un bateau-poubelle lui aussi rempli de candidats à l’exil. La tragédie ne fut révélée qu’en 2001, lorsqu’un pêcheur brisa l’omerta. Canal+ vient d’ailleurs d’y consacrer un reportage, Méditerranée : Enquête sur un naufrage fantôme.

Pour mieux prendre la mesure de cette tragédie, OWNI a contacté l’ONG United, qui a bien voulu lui transmettre une copie de sa base de données, où elle recense tous ces morts aux frontières, classés par dates, pays, et causes des décès, afin d’en dresser une carte interactive qui vous permettra, en cliquant sur les noms des pays, ou les causes des décès, de suivre leur évolution au fil du temps, mais également de consulter chacun des faits et histoires répertoriés par United.

Cartographie : Olivier Clochard (Migreurop)

Paradoxalement, les “morts aux frontières de l’Europe” meurent essentiellement en Méditerranée, et en Afrique, ce que montrent bien les nombreuses cartographies déjà produites par le Monde Diplomatique; la première en 2004, la seconde en 2010 (voir aussi ce résumé de l’évolution de la situation, et le formidable travail graphique d’Elise Gay à ce sujet).

Cartographie : Philippe Rekacewicz (Le monde diplomatique)

Certains se souviennent peut-être de ces 58 Chinois découverts morts étouffés dans un camion à Douvres, en juin 2000. La lecture de la base de données montre à quel point leur cas est loin d’être isolé. Et parce qu’il ne peut être question que de chiffres, de statistiques, de courbes et de graphiques, voici, compilées, quelques-unes de ces histoires de réfugiés “morts aux frontières de l’Europe“, témoignant de la brutalité et des ravages causés par ce que plusieurs ONG d’aide et de défense des migrants n’hésitent pas à qualifier de “guerre aux migrants“.

On l’a vu, la majeure partie des migrants meurent noyés. L’une des pires tragédies se déroula le 29 mars 2009, lorsque trois embarcations de fortune, en partance pour l’Italie, coulèrent au large de la Libye. D’après l’Organisation internationale pour les migrations, plus de 300 hommes, femmes et enfants auraient péri dans le naufrage, mais le chiffre serait en fait bien plus important, à en croire le témoignage d’un survivant, qui expliqua aux autorités libyennes que le bateau dans lequel il était monté, censé accueillir 75 personnes, en avaient embarqué 365.

235 migrants tués par les policiers

Les noyades ne sont pas toutes forcément dues aux mauvaises conditions climatiques, ou au surpeuplement des embarcations. Ainsi, en mars 1997, 87 Albanais se noient après que leur embarcation soit entrée en collision avec un bateau militaire italien. En mai 2000, 32 réfugiés meurent dans le naufrage de leur embarcation près de Tanger : les autorités ne font rien pour les secourir. En 2008, 36 Africains -dont 4 bébés- meurent noyés après que les garde-côtes marocains aient crevé d’un coup de couteau leur canot pneumatique…

En août 2002, 16 Africains meurent noyés après que leur bateau ait chaviré lors d’une manœuvre destinée à échapper au contrôle du Système Intégré de Surveillance Extérieure (S.I.V.E.), monstre des mers et “dispositif très complexe de surveillance des frontières intégrant bandes vidéo, liaison satellitaire, radars, caméras thermiques et infrarouges, appuyé par des unités d’intervention par hélicoptères et maritimes“.

Nombreux sont également ceux qui meurent de froid, de soif ou de faim. En octobre 2003, on retrouve 5 cadavres, morts de froid, dans un camion frigorifique incendié, puis 12 Somaliens, morts de froid et de faim, dans un bateau parti de Libye vers Lampedusa, après avoir passé 20 jours sans manger. Le capitaine est par ailleurs accusé d’avoir jeté 50 autres cadavres par-dessus bord.

En août 2008, 56 subsahariens meurent de soif dans le Sahara après y être restés bloqués 10 jours sans eau suite, à une panne d’essence. En janvier 2010, L’Espresso avait ainsi publié cette vidéo où l’on voit, à la fin, deux Africains déshydratés, mais en vie, et la triste cohorte de tous ceux qui, par contre, n’ont pas survécu à leur traversé du Sahara [attention : images explicites].

Plusieurs centaines de réfugiés ont par ailleurs été les victimes directes des dispositifs mis en place pour leur interdire l’entrée sur le territoire européen, à l’instar de ces 11 réfugiés morts brûlés dans l’incendie d’un centre de rétention à l’aéroport Schiphol, aux Pays-Bas :

  • 73 personnes sont mortes dans des champs de mines,
  • 63 ont été tuées, ou sont portées disparues, après leur déportation,
  • 110 sont mortes dans des centres de rétention,
  • 48 en garde à vue, et 57 en prison… alors même qu’elles étaient pourtant censées être, sinon sous la protection, tout du moins sous la responsabilité des autorités.

Fortress Europe estime que 235 migrants sont morts tués par des policiers aux frontières, “dont 37 aux enclaves espagnoles au Maroc, Ceuta et Melilla, 50 en Gambie, 75 en Égypte et 33 en Turquie, le long de la frontière avec l’Iran et l’Iraq. Ainsi, en septembre 2003, Vullnet Bytyci, un Albanais de 18 ans, est tué par un garde-frontière grec, ce qui lui valu d’être condamné à une peine de deux ans et trois mois d’emprisonnement avec sursis. Amnesty International avait dans la foulée dénoncé 6 autres affaires révélant les “mauvais traitements” auxquels furent soumis plusieurs autres réfugiés, battus, roués de coups et dépouillés, par des garde-frontières cette semaine-là.

Le 8 octobre 2009, entre 6 et 38 Somaliens sont tués par les policiers libyens en tentant de fuir le camp où ils étaient internés. Déjà, en septembre-octobre 2000, 560 étrangers avaient été tués par les autorités libyennes lors d’affrontements racistes.

Tschianana, Mariame, Israfil, Manuel, Osamyia et les autres

Si la quasi-totalité de la base de données porte sur des anonymes, quelques entrées comportent les noms et prénoms de certains de ces “morts aux frontières“. Occasion, sinon de mettre un visage, tout du moins d’humaniser quelque peu cette longue litanie.

  • En 2004, Tschianana Nguya, une Congolaise de 34 ans, malade, enceinte et maman de deux enfants de 2 et 10 ans, est arrêtée en allant se soigner, et renvoyée dans son pays par les autorités allemandes. Immédiatement arrêtée par la police, internée dans un camp militaire, elle meurt, et son bébé avec, en accouchant, laissant son mari, et son plus grand fils de 16 ans, “quelque part en Europe“.
  • En janvier 2003, Mariame Getu Hagos, un Somalien de 24 ans, meurt dans l’avion qui le reconduisait en Afrique après que les policiers français aient “usé de la contrainte” pour l’empêcher de se débattre.
  • En mars 2003, Israfil Shiri, un homosexuel iranien de 30 ans, s’immole après s’être vu refuser l’asile en Grande-Bretagne, où il était arrivé caché dans un camion en 2001.
  • En juillet 2005, Laye-Alama Kondé, soupçonné de trafic de drogue et conduit au commissariat de Brême, est menotté à une chaise par deux policiers qui le forcent à avaler des vomitifs, et meurt noyé dans l’eau qu’on le force à ingérer pour pomper le vomitif.
  • En septembre 2005, Manuel Bravo, 30 ans, se suicide par pendaison dans le centre de rétention britannique où il était interné avec son fils de 13 ans après avoir appris qu’il allait être renvoyé en Angola, afin de lui éviter la déportation : en Grande-Bretagne, les mineurs de moins de 18 ans isolés ne peuvent être expulsés.
  • En septembre 2007, Osamyia Aikpitanhi, un Nigérian de 23 ans meurt étouffé par le bâillon que les policiers lui avait mis pour qu’il ne les morde pas dans l’avion qui le reconduisait de l’Espagne au Nigéria.
  • En ce même mois, Chulan Lui, une Chinoise de 51 ans se défenestrait en voulant fuir la police.

D’après la base de données d’United, une cinquantaine d’autres réfugiés sont ainsi morts, “de peur“, en fuyant les autorités.

La révolution, c’est bien, mais de loin

Confronté à l’afflux massif de réfugiés tunisiens à Lampedusa, le gouvernement italien a laissé entendre que des criminels en fuite et des terroristes se faisaient passer pour des demandeurs d’asile, et qu’il fallait “bloquer le flux” des migrants. De son côté, la France a indiqué qu’elle n’accueillerait que des “cas marginaux“.

Le réseau Migreurop, créé en 2002 suite à un séminaire sur « l’Europe des camps » par des militants et chercheurs “dont l’objectif est de faire connaître la généralisation de l’enfermement des étrangers dépourvus de titre de séjour“, dénonce lui aussi la tournure que prend l’accueil des réfugiés tunisiens à Lampedusa :

Brandissant l’argument de l’invasion et de la menace terroriste, l’Italie, qui a déclaré l’état d’urgence humanitaire, réclame l’intervention immédiate d’une mission de l’agence Frontex pour patrouiller au large des côtes tunisiennes et intercepter les embarcations de migrants.

Le réseau Migreurop s’interroge sur les raisons qui ont permis le passage, en quelques jours, de plusieurs bateaux des migrants dans cette zone de la Méditerranée qui était “verrouillée” depuis plusieurs mois à la suite d’accords de coopération conclus entre l’Italie, la Libye et la Tunisie pour le contrôle des frontières maritimes. Qui a intérêt à faire peser la menace du désordre ?

Plutôt que les patrouilles de Frontex et les accords de réadmission, c’est la levée des contrôles migratoires qui doit célébrer le souffle de liberté venu de Tunisie et d’Égypte.

Pour éviter la répétition des tragédies passées, United appelle de son côté le gouvernement italien et les autorités européennes à cesser d’exploiter le spectre d’une explosion de l’immigration maghrébine, et d’appliquer la résolution 1637 du Conseil de l’Europe sur l’accueil des boat people :

Une chose est de soutenir la révolution tunisienne, une autre est de l’accompagner jusqu’à ce que la paix et la stabilité soient restaurées, ce qui inclut le respect des droits de l’homme des Tunisiens, et leur droit fondamental de demander asile.

Carte réalisée par Marion Boucharlat au design et James Lafa au développement. Merci à eux.

Voir aussi la “une” d’OWNI consacrée à ce sujet, et notamment l’entretien avec Claire Rodier, de Migreurop et du Gisti : La liberté de circulation s’impose comme une évidence.

]]>
http://owni.fr/2011/02/18/app-la-carte-des-morts-aux-frontieres-de-leurope/feed/ 0
Il faut gérer publiquement les données scientifiques http://owni.fr/2010/09/01/il-faut-gerer-publiquement-les-donnees-scientifiques/ http://owni.fr/2010/09/01/il-faut-gerer-publiquement-les-donnees-scientifiques/#comments Wed, 01 Sep 2010 14:20:12 +0000 Andre Vellino (trad. Martin Clavey) http://owni.fr/?p=26380 Andre Vellino est chercheur au  NRC Canada Institute for Scientific and Technical Information et professeur invité à l’École de l’Information de l’Université de Ottawa.

Les données de recherches scientifiques sont sans nul doute un composant central du cycle de vie de la production de la connaissance. D’une part, les données scientifiques sont essentielles à la corroboration (ou la falsification) des théories. Mais aussi, l’accès ouvert à ces données est tout aussi important pour que le processus de validation scientifique soit mis en œuvre (comme cela a été récemment démontré par la controverse du « ClimateGate » et la récente affaire sur les données de recherche de la cognition chez les primates de Marc Houser). L’accessibilité publique des données permet une relecture ouverte par les pairs et encourage la reproductibilité des résultats.

De ceci découle l’importance des pratiques de gestion des données dans les bibliothèques scientifiques du XXIème siècle : le traitement éditorial, l’accès et la préservation des données de recherches scientifiques vont devenir cruciaux pour le futur du discours scientifique.

Certaines données ne sont pas stockées

Il est vrai que les institutions de recherches scientifiques à grande échelle gèrent des données de références depuis longtemps. Dans beaucoup de disciplines, les centres de données dans ces institutions ont rassemblé un bon nombre de bases de données contenant les fruits d’années de recherches. Par exemple, GenBank, la base de données de séquences génétiques du National Institutes of Health (NIH), et une collection annotée et globale de toutes les séquences d’ADN accessible publiquement (plus de 150 000 séquences).

Toutefois, d’autres types de données rassemblées par les scientifiques sont soit éphémères soit très dépendants du contexte et ne sont préservés à long terme pour le bénéfice de recherches futures ni par les institutions ni individuellement par les chercheurs. Ceci n’est pas si important pour les données reproductibles (soit expérimentalement, soit par simulation). Mais beaucoup de données, comme celles concernant la concentration du pétrole et sa dissipation dans l’eau du golf du Mexique en 2010, sont uniques et non-reproductibles.

Comme je l’ai indiqué dans un billet précédent, l’émergence de méthodes de référencement unique pour les jeux de données comme celles de DOI implémentées par les partenaires de Datacite, permettrait d’aider à résoudre certains problèmes subit par les petits jeux de données orphelins et inaccessibles. La combinaison de politiques de dépôts de données par les agences de financement de la recherche scientifique (comme NSF aux États-Unis et NSERC au Canada) et la reconnaissance par les pairs des universités envers l’effort intellectuel effectuer dans la création de données va, dans le futur proche, augmenter tant le nombre de publications de données que leur référencement pour correspondre à la situation actuelle avec les publications savantes.

En parallèle, l’émergence du mouvement de « l’accès ouvert aux données » et d’autres initiatives qui augmentent la disponibilité des données générées par les gouvernement et les institutions gouvernementales (dont la NASA, le NIH, et la Banque mondiale) sont en bonne adéquation avec les principes de l’OCDE [PDF]. On y trouve dans celui-ci, incidemment, une liste longue et convaincante des bénéfices économiques et sociaux qui découle du libre accès des données scientifiques.

Un mouvement mondial émerge

Les États-Unis, le Royaume-Uni, et l’Australie sont les fers de lance dans l’effort fait pour rendre les données de recherches scientifiques accessibles. Par exemple, aux États-unis, le récent rapport [PDF] du Conseil national de science et technologie (NSTC) rendu au Président Obama détaille une stratégie complète pour promouvoir l’accès aux données numériques et leur préservation.

Ses rapports et initiatives montrent qu’il existe un mouvement mondial pour réaliser et articuler les visions de plusieurs organismes concernés par le traitement et l’archive de données qui s’est créé pendant la première décennie du XXIème siècle (voir To Stand the Test of Time [PDF] et Long Lived Scientific Data Collections [PDF]).

Au Canada, d’autres rapports similaires comme la Consultation sur l’accès aux données de recherches scientifiques [PDF] et la Stratégie canadienne de l’information numérique soulignent également le besoin d’un conseil national pour la préservation de l’information numérique, y compris les ensembles de données scientifiques. Malgré beaucoup de discussions, les efforts systématiques dans dans la gestion des données scientifiques canadiennes ne sont qu’à leurs premiers stades. Alors que les données dans certains domaines sont bien préservées et bien gérées, comme en sciences de la terre (avec Géogratis) et en astronomie (avec le Canadian Astronomy Data Centre) qui ont des communautés d’utilisateurs scientifiques spécialisés et dont les besoins sont bien compris, les besoins en gestion de données des scientifiques esseulés dans des petits groupes de recherches mal financés sont soit impossible à trouver soit déjà perdu.

Un obstacle au traitement éditorial bibliographique effectif des jeux de données est l’absence de normes communes. Il n’y a pour l’instant « aucune règle de publication, de présentation, de citations ou même de catalogue de jeux de données » (OCDE) [Green, T (2009), “We Need Publishing Standards for Datasets and Data Tables”, OECD Publishing White Paper, OECD Publishing]

La Passerelle vers les données scientifiques de l’Institut canadien de l’information scientifique et technique (ICIST) ainsi que d’autres sites nationaux (tel que British National Archives of Datasets) qui rassemble des informations à propos des jeux de données, utilisent des normes bibliographiques (tel que Dublin Core) pour représenter les méta-données. L’avantage est que ces normes ne dépendent pas du domaine et sont déjà suffisamment riches pour exprimer les éléments clés dont on a besoin pour archiver et retrouver les données. Toutefois, ces normes de méta-données développées pour la bibliothéconomie traditionnelle, ne sont pas (encore) suffisamment riches pour récupérer complètement la complexité des données scientifiques venant de toutes les disciplines, comme je l’ai fait valoir dans un précédent billet.

Lorsqu’on décide de la faisabilité de la création d’un dépôt de données, une des inquiétudes majeures est le coût lié au dépôt, au traitement et à la préservation à long terme des données de recherches. Typiquement, les coûts dépendent de nombreux facteurs incluant la façon dont les phases caractéristiques (planification, acquisition, mise à disposition, organisation, traitement, archivage, stockage, préservation et les services d’accès) sont déployées (voir les rapports du JISC “Keeping Research Data Safe” Part 1 and Part 2). Les coûts associés à différentes collections de données varient aussi considérablement selon la rareté ou la valeur des données et selon exigences pour l’accès au fil du temps.

Un point à noter venant des rapports “Keeping Research Data Safe” est que :

« les coûts d’archivage des activités (archivage, stockage et préservation, planification et actions) sont une toute petite proportion des coûts globaux et sont très légers comparés aux coûts d’acquisition/traitement et d’accès des données.”

En bref, la gestion de bibliothèques de données est critique pour l’avenir de la science et les coûts de la technologie nécessaire pour cette gestion sont la moindre de nos préoccupations.

Cet article est une traduction d’un billet publié sur Synthèse par Andre Vellino

Illustration FlickR CC : scott ogilvie, hexodus

]]> http://owni.fr/2010/09/01/il-faut-gerer-publiquement-les-donnees-scientifiques/feed/ 4 Il faut gérer publiquement les données scientifiques http://owni.fr/2010/09/01/il-faut-gerer-publiquement-les-donnees-scientifiques-2/ http://owni.fr/2010/09/01/il-faut-gerer-publiquement-les-donnees-scientifiques-2/#comments Wed, 01 Sep 2010 14:20:12 +0000 Andre Vellino (trad. Martin Clavey) http://owni.fr/?p=26380 Andre Vellino est chercheur au  NRC Canada Institute for Scientific and Technical Information et professeur invité à l’École de l’Information de l’Université de Ottawa.

Les données de recherches scientifiques sont sans nul doute un composant central du cycle de vie de la production de la connaissance. D’une part, les données scientifiques sont essentielles à la corroboration (ou la falsification) des théories. Mais aussi, l’accès ouvert à ces données est tout aussi important pour que le processus de validation scientifique soit mis en œuvre (comme cela a été récemment démontré par la controverse du « ClimateGate » et la récente affaire sur les données de recherche de la cognition chez les primates de Marc Houser). L’accessibilité publique des données permet une relecture ouverte par les pairs et encourage la reproductibilité des résultats.

De ceci découle l’importance des pratiques de gestion des données dans les bibliothèques scientifiques du XXIème siècle : le traitement éditorial, l’accès et la préservation des données de recherches scientifiques vont devenir cruciaux pour le futur du discours scientifique.

Certaines données ne sont pas stockées

Il est vrai que les institutions de recherches scientifiques à grande échelle gèrent des données de références depuis longtemps. Dans beaucoup de disciplines, les centres de données dans ces institutions ont rassemblé un bon nombre de bases de données contenant les fruits d’années de recherches. Par exemple, GenBank, la base de données de séquences génétiques du National Institutes of Health (NIH), et une collection annotée et globale de toutes les séquences d’ADN accessible publiquement (plus de 150 000 séquences).

Toutefois, d’autres types de données rassemblées par les scientifiques sont soit éphémères soit très dépendants du contexte et ne sont préservés à long terme pour le bénéfice de recherches futures ni par les institutions ni individuellement par les chercheurs. Ceci n’est pas si important pour les données reproductibles (soit expérimentalement, soit par simulation). Mais beaucoup de données, comme celles concernant la concentration du pétrole et sa dissipation dans l’eau du golf du Mexique en 2010, sont uniques et non-reproductibles.

Comme je l’ai indiqué dans un billet précédent, l’émergence de méthodes de référencement unique pour les jeux de données comme celles de DOI implémentées par les partenaires de Datacite, permettrait d’aider à résoudre certains problèmes subit par les petits jeux de données orphelins et inaccessibles. La combinaison de politiques de dépôts de données par les agences de financement de la recherche scientifique (comme NSF aux États-Unis et NSERC au Canada) et la reconnaissance par les pairs des universités envers l’effort intellectuel effectuer dans la création de données va, dans le futur proche, augmenter tant le nombre de publications de données que leur référencement pour correspondre à la situation actuelle avec les publications savantes.

En parallèle, l’émergence du mouvement de « l’accès ouvert aux données » et d’autres initiatives qui augmentent la disponibilité des données générées par les gouvernement et les institutions gouvernementales (dont la NASA, le NIH, et la Banque mondiale) sont en bonne adéquation avec les principes de l’OCDE [PDF]. On y trouve dans celui-ci, incidemment, une liste longue et convaincante des bénéfices économiques et sociaux qui découle du libre accès des données scientifiques.

Un mouvement mondial émerge

Les États-Unis, le Royaume-Uni, et l’Australie sont les fers de lance dans l’effort fait pour rendre les données de recherches scientifiques accessibles. Par exemple, aux États-unis, le récent rapport [PDF] du Conseil national de science et technologie (NSTC) rendu au Président Obama détaille une stratégie complète pour promouvoir l’accès aux données numériques et leur préservation.

Ses rapports et initiatives montrent qu’il existe un mouvement mondial pour réaliser et articuler les visions de plusieurs organismes concernés par le traitement et l’archive de données qui s’est créé pendant la première décennie du XXIème siècle (voir To Stand the Test of Time [PDF] et Long Lived Scientific Data Collections [PDF]).

Au Canada, d’autres rapports similaires comme la Consultation sur l’accès aux données de recherches scientifiques [PDF] et la Stratégie canadienne de l’information numérique soulignent également le besoin d’un conseil national pour la préservation de l’information numérique, y compris les ensembles de données scientifiques. Malgré beaucoup de discussions, les efforts systématiques dans dans la gestion des données scientifiques canadiennes ne sont qu’à leurs premiers stades. Alors que les données dans certains domaines sont bien préservées et bien gérées, comme en sciences de la terre (avec Géogratis) et en astronomie (avec le Canadian Astronomy Data Centre) qui ont des communautés d’utilisateurs scientifiques spécialisés et dont les besoins sont bien compris, les besoins en gestion de données des scientifiques esseulés dans des petits groupes de recherches mal financés sont soit impossible à trouver soit déjà perdu.

Un obstacle au traitement éditorial bibliographique effectif des jeux de données est l’absence de normes communes. Il n’y a pour l’instant « aucune règle de publication, de présentation, de citations ou même de catalogue de jeux de données » (OCDE) [Green, T (2009), “We Need Publishing Standards for Datasets and Data Tables”, OECD Publishing White Paper, OECD Publishing]

La Passerelle vers les données scientifiques de l’Institut canadien de l’information scientifique et technique (ICIST) ainsi que d’autres sites nationaux (tel que British National Archives of Datasets) qui rassemble des informations à propos des jeux de données, utilisent des normes bibliographiques (tel que Dublin Core) pour représenter les méta-données. L’avantage est que ces normes ne dépendent pas du domaine et sont déjà suffisamment riches pour exprimer les éléments clés dont on a besoin pour archiver et retrouver les données. Toutefois, ces normes de méta-données développées pour la bibliothéconomie traditionnelle, ne sont pas (encore) suffisamment riches pour récupérer complètement la complexité des données scientifiques venant de toutes les disciplines, comme je l’ai fait valoir dans un précédent billet.

Lorsqu’on décide de la faisabilité de la création d’un dépôt de données, une des inquiétudes majeures est le coût lié au dépôt, au traitement et à la préservation à long terme des données de recherches. Typiquement, les coûts dépendent de nombreux facteurs incluant la façon dont les phases caractéristiques (planification, acquisition, mise à disposition, organisation, traitement, archivage, stockage, préservation et les services d’accès) sont déployées (voir les rapports du JISC “Keeping Research Data Safe” Part 1 and Part 2). Les coûts associés à différentes collections de données varient aussi considérablement selon la rareté ou la valeur des données et selon exigences pour l’accès au fil du temps.

Un point à noter venant des rapports “Keeping Research Data Safe” est que :

« les coûts d’archivage des activités (archivage, stockage et préservation, planification et actions) sont une toute petite proportion des coûts globaux et sont très légers comparés aux coûts d’acquisition/traitement et d’accès des données.”

En bref, la gestion de bibliothèques de données est critique pour l’avenir de la science et les coûts de la technologie nécessaire pour cette gestion sont la moindre de nos préoccupations.

Cet article est une traduction d’un billet publié sur Synthèse par Andre Vellino

Illustration FlickR CC : scott ogilvie, hexodus

]]> http://owni.fr/2010/09/01/il-faut-gerer-publiquement-les-donnees-scientifiques-2/feed/ 2 Fabrique du datajournalism #2 : nous sommes prêts! http://owni.fr/2010/06/01/fabrique-du-datajournalism-2-nous-sommes-prets/ http://owni.fr/2010/06/01/fabrique-du-datajournalism-2-nous-sommes-prets/#comments Tue, 01 Jun 2010 10:24:53 +0000 Caroline Goulard http://owni.fr/?p=17125 Now, it’s on !

Un développeur, un statisticien et une graphiste : l’équipe datajournalisme d’OWNI a subitement pris de l’ampleur ce matin.

Premier test pour les new-comers de la soucoupe : après une rapide mise au parfum sur l’actualité de la semaine, trois sujets ont été retenus – le blocus israélien à Gaza, Roland-Garros et le sommet Afrique-France – et les huit datajournalistes mobilisés ont eu quinze minutes pour produire un mini-cahier des charges pour chaque projet.

Quatre heures plus tard, sur les écrans de l’open space, on pouvait voir :

-Un défilé de cartes, « France à quelle Afrique tu parles ? » : pour chaque sommet Afrique-France depuis 1973, quels étaient les pays représentés par leurs chefs d’États ? Quelle carte de l’Afrique ces données dessinent-elles ? Une visualisation en forme d’archipel à géométrie variable, en fonction de l’évolution des relations diplomatiques.

-Une infographie interactive liée à une base de données interrogeable sur les pays vainqueurs de Roland-Garros, de Wimbledon, de l’Open d’Australie et de l’US Open, par épreuve, et depuis 1990 : quelle est la couleur nationale du podium ? Quels sont les pays qui ont émergé dans le monde du tennis ces derniers années ?  Quels sont ceux qui sont sortis des palmarès ? Une visualisation avec des petites balles de tennis, déclinable à l’envie avec des ballons de basket, de foot, de baseball, etc., et les statistiques qui vont avec.

-Une visualisation sous forme de jeu de l’oie : comment traiter de façon ludique un sujet critique, avec le parcours de deux habitants de Gaza : Talal, l’entrepreneur, et Ahmad, le fonctionnaire : prix des clopes, accidents sanitaires, marché noir, taxes du Hamas, bakchich pour arriver à bon port, etc.

La fabrique du data #2 se poursuit par un passage en revue des projets dans les cartons.

@martin_u: motivé comme jamais sur ce genre de projet

Les projets déjà réalisés à améliorer

« Authentique ou retouchée » : côté développement : une V2 sur les rails, et côté éditorial une traduction geek-français et français-anglais à prévoir. Ce widget attire toujours plus de 1.000 utilisateurs par mois, assez pour qu’il deviennent intéressant de le doter d’un vrai petit écrin avec une url dédiée, et des fonctionnalités spécialement pensées pour les journalistes qui ont besoin de vérifier la provenance de photos crowdsourcées.

« Où je vote » : les élections sont passées, mais le crowdsourcing continue, 75% des données sont désormais qualifiées, un bel effort qui mérite d’être salué.

« Lycées.eu » : moins de quinze personnes ont utilisé cette application. Nous réfléchissons à la façon de la relancer car l’outil est potentiellement riche.

« La crise grecque en datajournalisme » : un vrai succès qui nous a donné l’idée de lancé une Data TV, sous forme de rendez-vous hebdomadaire de décryptage de gros volumes de données grâce aux gadgets Google Motion Charts. Qu’en pensez-vous ?

Les projets dans les tiroirs

« Le media ring » : le moins qu’on puisse dire, c’est que l’équipe ne manque d’idées pour questionner la popularité de nos médias dans les réseaux sociaux. Façon combat de boxe, avec une petite application où l’on pourrait réunir virtuellement les équipes de supporters-followers-Ilikers et vérifier… laquelle a la plus grosse. Façon widget pour site d’information : nous aimerions ajouter quelques stats au dessus des traditionnels boutons « partager sur Facebook », « partager sur Twitter », etc. Et si on se met à rêver, on pourrait même vous proposer une application Amazon-like du style « les lecteurs qui ont twitté cet article ont aussi twitté celui là » : merveilleux pour mettre en valeur des archives et capt(iv)er les lecteurs sur un site.

« Éoliennes » : Christine Tréguier, journaliste à Politis, mène depuis plus d’un mois une enquête sur le prix de l’énergie selon ses différents modes de production. Nous nous apprêtons à illuminer son travail par quelques visualisations. Le résultat sort bientôt sur OWNI.

« La vie en prison vue par les données » : projet un peu laissé de côté par manque de matériau, nous comptons le relancer sous forme de web-docu.

Les nouveaux projets

« Appli vélib cassés » : vous n’avez qu’à prendre en photo un vélib cassé ou une station vide, nous agrégeons les données pour vous fournir une carte en temps réel de l’état des vélos et du réseau à Paris.

« Clean your Facebook » : une petite appli pour nettoyer les photos où vous avez été taggués, vos updates de statuts et autres wall-plaisanteries, ça vous tenterait ? Le droit à l’oubli, ça vous intéresse ?

« Les liens entre les hautes sphères du CAC 40 » : la très chouette visu d’Alternative Eco nous a donné plein d’idées : nous aimerions réaliser un graph relationnel des liens entre les membres du CAC 40 : écoles fréquentées, rémunération, présences dans les conseils d’administration, etc.

« Visualiser les subventions versées par le conseil régional d’Île-de-France » : l’article de H16 nous a mis l’eau à la bouche, on reviendra dessus avec de la visu.

« La réforme des retraites en visu » : plusieurs problématiques nous semblent pertinentes : scénario de réforme des retraites en France, comparaison entre l’âge légal de départ à la retraite et l’âge réel, panorama européen des systèmes de retraite, etc. Les données ne manquent pas, nous cherchons un partenaire pour nous aider à avoir un regard « clair » sur la situation.

« Presse papier vs presse sur le web : quel circuit de distribution ? » : une infographie montrant le trajet d’un article depuis sa conception par une entreprise de presse jusqu’à son appropriation par un lecteur, sur le papier et sur le web. Notre idée est de démontrer que le web peut décupler vos contacts avec votre public.

« Les Big Brother Awards : découvrez-les par les données » : nous avons un magnifique projet d’interface pour les archives des Big Brother Award : une visualisation de plusieurs centaines de dossiers sous forme d’éco-système navigable par thème et par acteur. A l’arrivée, une visualisation capable de raconter l’évolution de la société de surveillance en France.

« La carte des morts aux frontières » : 3.700 points à placer sur une à partir de ce très riche document. Histoire de traiter de sujets importants pour nous, et pas foncièrement LOL.

Et bien sûr, puisque la soucoupe n’a pas embarqué que des datajournalistes, nous vous préparons des dossiers, des analyses et des archives pour agrémenter tous ces projets.

Il ne vous reste plus qu’à guetter les retombées de cette riche journée sur les pages d’Owni.fr, ou ailleurs.

Vous êtes journaliste, développeur ou graphiste, et vous avez des idées de visualisation autour de base de données interrogeables ? N’hésitez pas à nous contacter (contact[at]owni.fr)

Vous faites partie d’un média et souhaitez coproduire l’un de ces projets ou une autre coproduction? Contactez-nous (contact[at]owni.fr) !

Illustrations CC Flickr par Extra Ketchup

]]>
http://owni.fr/2010/06/01/fabrique-du-datajournalism-2-nous-sommes-prets/feed/ 2
#Opendata 1/2: ||Les bons ingrédients pour une ouverture des données réussie http://owni.fr/2010/05/31/opendata-12-data-gov-ou-data-gov-uk/ http://owni.fr/2010/05/31/opendata-12-data-gov-ou-data-gov-uk/#comments Mon, 31 May 2010 06:47:14 +0000 Caroline Goulard http://owni.fr/?p=16981 Un consortium d’ONG et de bailleurs de fonds internationaux a récemment commandé un rapport sur l’open data sous l’égide de la Transparency and Accountability Initiative.

L’étude finale, l’Open Data Study, rédigée par Becky Hogge, a été publiée en mai 2010 par l’Open Society Institute (institution fondée par George Soros). Elle explore les politiques d’ouverture des données publiques aux États-Unis et au Royaume-Uni, et cherche à en tirer des conséquences pour mener des initiatives similaires en dehors des démocraties occidentales.

A l’origine de cette démarche, il y a la conviction que l’ouverture des données publiques peut apporter d’importants atouts économiques et sociaux. Pour l’auteur du rapport, rendre disponible des données géographiques, budgétaires, sociales dans un format permettant leur réutilisation, permet d’améliorer les services et de créer de la croissance économique.

Data.gov & data.gov.uk : quelles leçons en tirer ?

Les Etats-Unis et le Royaume-Uni ont récemment adopté des démarches volontaristes sur l’opendata en lançant les deux portails www.data.gov et www.data.gov.uk.

L’exemple britannique : data.gov.uk

Data.gov.uk est un portail donnant accès à un ensemble de données collectées et entretenues par le gouvernement et les institutions publiques britanniques. Actuellement data.gov.uk héberge environ 3 200 bases de données et une cinquantaine d’applications dérivées.

Comment en est-on arrivé là ?

Premier geste fondateur en direction de l’opendata : en juin 2009, le Premier Ministre britannique Gordon Brown annonçait que Tim Berners Lee s’apprêtait à rejoindre son gouvernement comme conseiller.

Mais l’arrivée de celui présenté comme le principal inventeur du World Wide Web ne suffit pas à expliquer le mouvement d’ouverture des données au Royaume-Uni.  Depuis déjà plusieurs années, le gouvernement britannique subissait une pression de la société civile, en particulier d’un groupe de responsables de sites web politiquement engagés, pour délivrer ses données de façon ouverte, dans un format lisible par les machines.

Face à ces acteurs politiques et citoyens mobilisés pour l’ouverture des données, quelques agences gouvernementales ont opposé une forte résistance. En particulier, l’agence de cartographie, l’Ordonance Survey (l’équivalent de notre Cadastre), car une partie de son financement provenait justement de l’exploitation commerciales des données publiques géographiques.

Data.gov.uk a été officiellement lancé en janvier 2010. Le site a été perçu comme une victoire de la communauté pro-opendata. Le Royaume-Uni voit désormais fleurir les sites web et les applications basées sur les données libérées, en particulier sur les données cartographiques liées aux codes postaux, autour de la dernière élection générale de mai 2010.

L’exemple américain : data.gov

Data.gov est un portail du gouvernement américain donnant accès aux bases de données crées par le gouvernement fédéral américain et par ses agences.

Il a été lancé en 2009, avec deux objectifs.

Tout d’abord, la volonté d’impulser une communication bottom-up et de faire émerger de nouvelles idées de gouvernance, en renforçant la transparence des services publics, la participation des citoyens, et la collaboration entre l’Etat et ses administrés.

L’ouverture des données publiques a aussi été pensée comme un moyen d’améliorer l’efficience des agences gouvernementales.

La plupart des agences gouvernementales américaines numérisaient déjà les données dont elles disposaient. Data.gov a été conçu comme un outil pour les aider dans leurs missions de service public.

Comme au Royaume-Uni, l’influence de la communauté des civil hackers a joué un rôle important. Ces citoyens engagés ont réutilisé dans leurs sites web des bases de données publiées par le gouvernement pour les présenter de façon enrichie et plus accessible.

Peut-être en réponse à ces initiatives citoyennes, les CIOs (Chief Information Officers) de certains Etats américains –dont le district de Columbia- ont commencé à rendre publiques leurs bases de données. C’est d’ailleurs le directeur technique du district de Columbia, Vivek Kundra qui a été par la suite embauché par Obama au poste de CIO fédéral en mars 2009.

Ces premiers pas en faveur de l’opendata ont trouvé un écho important lorsque le Président Obama a pris ses fonctions à la Maison Blanche. Il a justement consacré un de ses premiers memorandums à l’ouverture et à la transparence.

Après une phase de recherche et développement, pendant le printemps 2009, data.gov a été lancé le 21 mai 2009.

Il contenait initialement 76 bases de données provenant de 11 agences publiques. Craignant que l’élan vers l’opendata ne retombe et que trop peu de données ne soient publiées, Obama a adopté un décret, le 8 décembre 2009, obligeant chaque agence gouvernementale à publier au moins 3 bases de données de qualité.

Aujourd’hui, la comparaison entre les deux plateformes – data.gov.uk et data.gov – ne joue pas en faveur des Etats-Unis : le portail britannique propose déjà trois fois plus de données, alors que son homologue américaine a six mois d’avance. Et data.gov.uk a fait le choix de formats standardisés favorisant le développement du web sémantique, à la différence de data.gov.

Je vous renvoie aux articles de Flowing Data et RWW pour de plus amples comparaison entre ces deux plateformes.

Les trois acteurs clés de l’ouverture des données

L’Open Data Study tire une leçon intéressante de ces observations : aux Etats-Unis comme au Royaume-Uni la conduite de l’ouverture des données a nécessité l’intervention de trois catégories d’acteurs :

  • La société civile, et en particulier un petit groupe de « civil hackers » très motivés
  • Des fonctionnaires gouvernementaux de peu d’influence, mais compétents et engagés
  • Les hautes sphères du pouvoir, guidées soit par une pression extérieure (dans le cas du Royaume-Uni), soit par le climat réformateur d’une toute nouvelle administration (dans le cas des États-Unis)

En écho aux propos tenus par Tim Berners Lee dans l’entretien qu’il a accordé à l’auteur de cette étude :

It has to start at the top, it has to start in the middle and it has to start at the bottom.

1/Dans une logique bottom-up, la société civile a imposé des exemples de bonnes pratiques et à mis sous pression les gouvernements. Ainsi, data.gov.uk et data.gov n’auraient sans doute jamais été créées si des citoyens engagés n’avaient pas déjà développé des applications telles que TheyWorkForYou.com (au Royaume-Uni) ou GovTrack.us (aux États-Unis), des cartes des accidents de vélo, ou des sites répertoriant les dépenses publiques.

TheyWorkForYou et GovTrack.us ont tous les deux été lancés en 2004, par des groupes de bénévoles qui voulaient faciliter le suivi de l’activité politique des parlementaires. Tous deux s’appuient sur des données déjà publiées sur des sites officiels tels que le Hansard au Royaume-Uni ou celui de la Library of Congress aux Etats-Unis, pour les présenter dans un format plus accessible, avec un moteur de recherche, et un espace de débat.

Les auteurs de ces deux applications sont donc passés outre les copyrights protégeant les bases de données originales. GovTrack.us agit également comme une plateforme de données pour d’autres sites citoyens.

Les citoyens bénévoles à l’origine de TheyWorkForYou (régroupé sous le nom de mySociety, fondée par Tom Steinberg), et de GovTrack.us (regroupés sous le nom de Civic Impulse, fondée par Josh Tauberer) s’identifient eux-même come des « civic hackers », c’est à dire des personnes qui utilisent les outils des technologies numériques pour enrichir la vie citoyenne ou résoudre des problèmes civiques. Ils vivent leur activité comme un engagement démocratique.

En France, nous avons aussi nos « civic hackers », chez Regards Citoyens, les éditeurs de NosDéputés.fr (notre équivalent du TheyWorkForYou britannique) et chez la Quadrature du Net (“La loi, c’est du code, donc ça se hacke“).

2/ Les bonnes pratiques citoyennes n’auraient pas suffit si elles n’avaient pas trouvé un relais auprès des fonctionnaires des échelons intermédiaires du pouvoir. Ces acteurs avaient eux aussi un intérêt à l’ouverture des données publiques, dans laquelle ils voyaient une opportunité pour rendre leur travail plus efficient et mieux compris.

Au Royaume-Uni plus particulièrement, la société civile et la communauté des administrateurs publics se sont alliés autour des problèmes de licences posés par la ré-utilisation des données. Leur coopération leur a permis de construire solide base d’expérience et de buts communs. En 2007, le Cabinet Office (l’organe chargé de coordonner les stratégies entre les différents ministères) a commandé un rapport sur l’ouverture des données publiques à Tom Steinberg, le fondateurs de TheyWorkForYou, et à Ed Mayo, le directeur du National Consumer Council (l’organe chargé de représenter les intérêts des consommateurs). L’étude finale, la Power of Information Review, met en avant les opportunités tant démocratiques qu’économiques de l’opendata.

La retombée la plus marquante du travail réalisé par Steinberg et Mayo sur la Power of Information Review a sans doute été le lancement du concours Show Us a Better Way. Un prix de 20 000£ a été mis en jeu pour le meilleur projet de réutilisation des informations du secteur public. Le concours a attiré environ 500 contributions, et a été gagné conjointement par 14 projets, dont le site WhereDoesMyMoneyGo qui rend compte de comment sont utilisés les impôts collectés par les pouvoirs publics.

L’émulation citoyenne autour de ce concours a constitué un argument formidable pour convaincre les agences gouvernementales de libérer leurs données, en particulier l’Ordonnance Survey de renoncer à monétiser ses données géo-spatiales (sujet déjà traité sur mon blog ici).

3/ L’expertise de ces fonctionnaires et administrateurs publics, a donné confiance aux leaders politiques dans la réussite de stratégies d’ouvertures des donnés publiques. Les dirigeants ont ainsi eu les moyens et la motivation pour passer outre l’inertie institutionnelle.

Le rôle des hautes sphères du pouvoir a surtout consisté à donner une dimension politique et démocratique à des problématiques jusque là perçue comme très technologiques.

L’existence de données : la base du succès

A côté de ce schéma à trois poles d’influence –société civile / administration publique / leaders politiques – l’Open Data Study relève un dernier facteur de réussite des stratégies d’opendata aux Etats-Unis et au Royaume-Uni : l’existence de données publiques nombreuses et fiables. Il y a dans ces pays une longue tradition de collecte de données publique, menée par des agences des fonctionnaires très compétents, disposant d’une relative autonomie et de ressources.

La France partage se solide socle de donnée avec les pays anglosaxons grâce à l’Insee. Le blog de Captain Dash consacre un très bon post à ce sujet, je vous conseille donc de lire “Insee… doesn’t ring a bell? That’s France at its top

Dernière remarque soulevée par l’Open Data Study : l’absence des utilisateurs finaux dans le processus de mise en place de l’ouverture de données. Bien sûr, l’audience des applications telles que TheyWorkForYou ou GovTrack.us ont joué un rôle, mais le plus souvent la notion d’utilité publique à pris le dessus sur la prise en compte des utilisateurs.

Lire la suite de cet article: “L’internationale de l’Opendata?”

Illustrations CC Flickr par Eric Fischer et daveypea

]]>
http://owni.fr/2010/05/31/opendata-12-data-gov-ou-data-gov-uk/feed/ 2
Raw Data_proust now ! http://owni.fr/2010/04/01/raw-data_proust-now/ http://owni.fr/2010/04/01/raw-data_proust-now/#comments Thu, 01 Apr 2010 15:00:58 +0000 Léo Gourven http://owni.fr/?p=11356 Léo Gourven a un projet fou: analyser À la recherche du temps perdu à l’aide des outils de visualisation de données. Il nous tient informé des dernières évolutions, notamment en ce qui concerne la transformation du texte en base de données.

Les semaines passées, je me suis cassé la tête pour essayer de trouver un outil qui me permette de passer du texte brut à une sorte de base de données. Je viens enfin de trouver chaussure à mon pied !

Explications :

Pour pouvoir faire des statistiques, il faut des variables. Elles décrivent des caractéristiques : des lieux, des personnages, un numéro de Tome ou tout ce que l’on souhaite. Dans mon cas, je dois déterminer et extraire des caractéristiques intéressantes du texte.

datas

Exemple simplifié sur le cas d’un découpage par phrase

Ce genre de chose, ça s’appelle le traitement automatique des langues (TAL). En gros ça veut dire, que des chercheurs développent des algorithmes pour extraire automatiquement des données d’un corpus. Parfait. Manque de chance, ces gens qui ont oublié d’être cons, ont aussi oublié ce qu’était une interface graphique. Ce qui me compliquait légèrement la tache (faut de la force pour se plonger là dedans). MAIS, j’ai fini par trouver la petite perle.

marcelcon

Pendant ce temps, Marcel joue au con lui.

GATE est un logiciel open source qui regroupe les codes des chercheurs cités plus haut, mais avec une interface graphique (y’a même des screencasts, que demande le peuple). C’est un peu complexe, mais accessible. J’ai donc rentré mon petit texte et exécuté mes traitements.

MAIS QUE FUT DONC MA SURPRISE, en découvrant le nombre de données que m’a sorti Gate en permettant de séparer : Les mots, les phrases, les paragraphes, les lieux, les métiers, les personnages, les sommes d’argents et d’autres choses encore.

Je ne pensais pas que l’on pouvait aller aussi loin dans l’analyse et mon projet gagne encore en grandeur (comprenez en travail !). Je vais donc continuer à tripatouiller Gate et essayer d’avoir un beau XML qui décrive des caractéristiques intéressantes à analyser.

Prochaines étapes :

> Diffuser les XML  !
> Je rencontre deux amis graphistes pour discuter ergonomie ce week end.
> Ouvrir un serveur de développement et un Github.
> Et par là, proposer aux personnes que ça motive de m’aider dans le développement !

> Article initialement publié sur Data Proust

]]>
http://owni.fr/2010/04/01/raw-data_proust-now/feed/ 1