OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Le prix de l’information http://owni.fr/2012/11/22/le-prix-de-l-information/ http://owni.fr/2012/11/22/le-prix-de-l-information/#comments Thu, 22 Nov 2012 11:56:24 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=126458

Without a Face, a portrait of the Soul - Photo CC by familymwr

“Information wants to be free”, vous vous souvenez ?

C’est sans toute l’une des phrases les plus célèbres prononcées à propos d’Internet. En 1984, l’auteur américain Stewart Brand lance au cours de la première Hacker’s Conference organisée en Californie :

Information wants to be free.

Ces mots deviendront l’un des slogans les plus forts du mouvement de la Culture libre et ils rencontrent encore aujourd’hui des échos importants, avec l’affaire WikiLeaks par exemple, les révolutions arabes ou le mouvement de l’Open Data. L’idée de base derrière cette formule consiste à souligner que l’information sous forme numérique tend nécessairement à circuler librement et c’est la nature même d’un réseau comme internet de favoriser cette libération.

Mais les choses sont en réalité un peu plus complexe et Stewart Brand dès l’origine avait parfaitement conscience que la libre circulation de l’information était une chose qui engendrerait des conflits :

D’un côté, l’information veut avoir un prix, parce qu’elle a tellement de valeur. Obtenir la bonne information au bon endroit peut juste changer toute votre vie. D’un autre côté, l’information veut être libre, parce que le coût pour la produire tend à devenir continuellement de plus en plus bas. Nous avons une lutte entre ces deux tendances.

Ce conflit latent traverse toute l’histoire d’Internet et il atteint aujourd’hui une forme de paroxysme qui éclate dans une affaire comme celle de la Lex Google.

Encapsuler l’information

Pour obliger le moteur de recherche à participer à leur financement, les éditeurs de presse en sont à demander au gouvernement de créer un nouveau droit voisin à leur profit, qui recouvrira les contenus qu’ils produisent et soumettra l’indexation, voire les simples liens hypertexte, à autorisation et à redevance.

Il est clair que si de telles propositions se transforment en loi dans ces termes, la première tendance de Stewart Brand aura remporté une victoire décisive sur l’autre et une grande partie des informations circulant sur Internet ne pourra plus être libre. La Lex Google bouleverserait en profondeur l’équilibre juridique du droit de l’information.

En effet, c’était jusqu’alors un principe de base que le droit d’auteur protège seulement les oeuvres de l’esprit, c’est-à-dire les créations originales ayant reçu un minimum de mise en forme. Cette notion est certes très vaste puisqu’elle englobe toutes les créations “quels qu’en soient le genre, la forme d’expression, le mérite ou la destination”, mais elle ne s’applique pas aux idées, aux données brutes et à l’information qui ne peuvent pas faire l’objet d’une appropriation et demeurent “de libre parcours”.

Une presse sans copyright

Une presse sans copyright

Les articles de presse doivent-ils être protégés par le droit d'auteur ? Ce n'est pas l'avis d'un récent arrêt d'une ...

Ces éléments forment un “fonds commun”, comme le dit le professeur Michel Vivant, dans lequel chacun peut venir puiser librement sans entrave pour alimenter ses propres réflexions et créations. Tout comme le domaine public, ce fonds commun joue un rôle primordial dans l’équilibre du système, afin que le droit d’auteur n’écrase pas d’autres valeurs fondamentales comme le droit à l’information ou la liberté d’expression.

Créer un droit voisin sur les contenus de presse reviendrait à “encapsuler” l’information dans une carapace juridique et à anéantir une grande partie de ce domaine public informationnel. L’information en elle-même, et non son expression sous forme d’articles, passerait subitement en mode propriétaire, avec même une mise en péril du simple droit à la citation.

À vrai dire, cette tendance à l’appropriation existe depuis longtemps. Elle s’est déjà manifestée par la création d’un droit des bases de données dans les années 90, dont l’application soulève de nombreuses difficultés. Des signes plus récents montrent qu’un revirement plus profond encore est en train de s’opérer dans la conception de la protection de l’information.

Les dépêches de l’AFP ont ainsi longtemps bénéficié d’une sorte de statut dérogatoire, comme si l’information brute qu’elle contenait et qu’elles étaient destinées à véhiculer primait sur le droit à la protection. Les juges considéraient traditionnellement que ces dépêches n’étaient pas suffisamment originales pour qu’on puisse leur appliquer un droit d’auteur, ce qui garantissait leur libre reprise. Mais l’AFP s’est efforcée de renverser le principe, en attaquant dès 2005 Google News devant les tribunaux, ce qui préfigurait d’ailleurs très largement les débats autour de la Lex Google.

Or en février 2010, le Tribunal de commerce de Paris a reconnu que les dépêches pouvaient présenter une certaine forme d’originalité susceptible d’être protégée :

[...] Attendu que les dépêches de l’AFP correspondent, par construction, à un choix des informations diffusées, à la suite le cas échéant de vérifications de sources, à une mise en forme qui, même si elle reste souvent simple, n’en présente pas moins une mise en perspective des faits, un effort de rédaction et de construction, le choix de certaines expressions [...]

L’affaire a été portée en appel, mais en attendant, l’information brute se trouve bien à nouveau recouverte par le droit d’auteur.

Demain, tous des parasites informationnels ?

Une affaire récente, qui a défrayé la chronique, va encore plus loin et elle pourrait bien avoir des retentissements importants, puisqu’elle tend à faire de chacun de nous des parasites en puissance de l’information, attaquables devant les tribunaux.

Jean-Marc Morandini vient en effet d’être condamné à verser 50 000 euros au journal Le Point, qui l’accusait de piller régulièrement la partie Médias 2.0 de son site, afin d’alimenter ses propres chroniques. Le jugement de la Cour d’Appel de Paris qui a prononcé cette condamnation est extrêmement intéressant à analyser, car il nous ramène au coeur de la tension autour de l’information libre formulée par Stewart Brand.

L’AFP peut-elle survivre au web et aux réseaux?

L’AFP peut-elle survivre au web et aux réseaux?

Institution de l'information, l'AFP traverse, comme beaucoup de médias, une phase de remise en question de son modèle ...

En effet, le juge commence logiquement par examiner si les articles repris sur Le Point peuvent bénéficier de la protection du droit d’auteur. Et là, surprise, sa réponse est négative, en vertu d’un raisonnement qui rappelle la position traditionnelle sur les dépêches AFP. La Cour estime en effet que les brèves figurant dans cette rubrique Medias 2.0 constituent des articles “sans prétention littéraire, ne permet[tant] pas à leur auteur, au demeurant inconnu, de manifester un véritable effort créatif lui permettant d’exprimer sa personnalité”. C’est dire donc qu’elles ne sont pas suffisamment originales pour entrer dans le champ du droit d’auteur, le journaliste qui les rédige (Emmanuel Berretta) se contentant de diffuser de l’information brute.

Nous sommes donc bien en dehors de la sphère de la contrefaçon, mais les juges ont tout de même estimé que Morandini méritait condamnation, sur la base du fondement de la concurrence déloyale et du parasitisme. La Cour reconnaît que le journaliste imite Le Point “avec suffisamment de différences pour éviter le plagiat, notamment en modifiant les titres des brèves et articles repris”, mais elle ajoute qu’il tend ainsi ainsi “à s’approprier illégitimement une notoriété préexistante sans développer d’efforts intellectuels de recherches et d’études et sans les engagements financiers qui lui sont normalement liés”. Plus loin, elle explique qu’ “il ne suffit pas d’ouvrir une brève par la mention “Selon le journal Le Point” pour s’autoriser le pillage quasi systématique des informations de cet organe de presse, lesquelles sont nécessairement le fruit d’un investissement humain et financier considérable”.

On est donc en plein dans la première partie de la citation de Stewart Brand : “information wants to be expensive, because it’s so valuable”. L’avocat du Point commentait de son côté la décision en ces termes :

Qu’il y ait une circulation de l’information sur Internet, du buzz, des reprises…, c’est normal, c’est la vie du Web, reprend Me Le Gunehec. Nous l’avions dit franchement à la cour d’appel, et elle le sait bien. Mais elle a voulu rappeler qu’il y a une ligne jaune : se contenter de reprendre les informations des autres, sous une forme à peine démarquée, avec quelques retouches cosmétiques pour faire croire à une production maison, cela ne fait pas un modèle économique acceptable. Et on pourrait ajouter : surtout quand cette information est exclusive.

Cette dernière phrase est très importante. Ce qu’elle sous-entend, c’est que celui qui est à l’origine d’une information exclusive devrait pouvoir bénéficier d’un droit exclusif sur celle-ci pour pouvoir en contrôler la diffusion et la monétiser. La logique du droit jusqu’à présent était pourtant exactement inverse : pas de droit exclusif sur l’information elle-même…

Sans avoir aucune sympathie particulière pour Morandini, il faut considérer qu’un tel raisonnement peut aboutir à nous rendre tous peu ou prou des parasites de l’information, car nous passons notre temps à reprendre des informations piochées en ligne sur Internet. Certains commentaires ont d’ailleurs fait remarquer à juste titre que cette jurisprudence heurtait de front le développement des pratiques de curation de contenus en ligne.

Revendiquer un droit exclusif sur l’information brute elle-même, différent du droit d’auteur sur son expression, c’est d’une certaine façon courir le risque de permettre l’appropriation de la réalité elle-même. Qu’adviendrait-il d’un monde où l’information serait ainsi protégée ? Un monde où l’information est copyrightée ?

Paranoia - Photo CC byncsa perhapsiam

Science-fiction

Il se trouve que la science-fiction a déjà exploré cette possibilité et la vision qu’elle nous livre est assez troublante et donne beaucoup à réfléchir sur cette crispation que l’on constate à propos du droit de l’information.

Dans sa nouvelle d’anticipation “Le monde, tous droits réservés” figurant dans le recueil éponyme, l’auteur Claude Ecken imagine justement un mode dans lequel l’information pourrait être copyrightée et les conséquences que cette variation pourrait avoir sur les médias et la société dans son ensemble.

L’information « papier » est hors de prix

L’information « papier » est hors de prix

Quelles sont les offres payantes en France tant en papier que sur le web et sont-elles attractives ? Marc Mentré nous livre ...

Dans un futur proche, l’auteur envisage que la loi a consacré la possibilité de déposer un copyright sur les évènements, d’une durée de 24 heures à une semaine, qui confère un droit exclusif de relater un fait, empêchant qu’un concurrent puisse le faire sans commettre un plagiat. A l’inverse de ce qui se passe aujourd’hui avec la reprise des dépêches des agences AFP ou Reuters, les organes de presse se livrent à une lutte sans merci pour être les premiers à dénicher un scoop sur lequel elles pourront déposer un copyright.

L’intérêt de la nouvelle est de développer dans le détail les implications juridiques et économiques d’un tel mécanisme. Les témoins directs d’un évènement (la victime d’une agression, par exemple) disposent d’un copyright qu’ils peuvent monnayer auprès des journalistes. Lorsqu’une catastrophe naturelle survient, comme un tremblement de terre, c’est cette fois le pays où l’évènement s’est produit qui détient les droits sur l’évènement, qu’elle vendra à la presse pour financer les secours et la reconstruction.

Et immanquablement, cette forme d’appropriation génère en retour des formes de piratage de l’information, de la part de groupuscules qui la mettent librement à la disposition de tous sous la forme d’attentats médiatiques, férocement réprimés par le pouvoir en place, ce qui rappelle étrangement l’affaire WikiLeaks, mais portée à l’échelle de l’information générale.

Si Claude Ecken s’applique à démontrer les dangers d’un tel système, il laisse aussi son héros en prendre la défense :

Avant la loi de 2018, les journaux d’information se répétaient tous. Leur spécificité était le filtre politique interprétant les nouvelles selon la tendance de leur parti. Il existait autant d’interprétations que de supports. Le plus souvent, aucun des rédacteurs n’avait vécu l’évènement : chacun se contentait des télex adressés par les agences de presse. On confondait journaliste et commentateur. Les trop nombreuses prises de position plaidaient en faveur d’une pluralité des sources mais cet argument perdit du poids à son tour : il y avait ressassement, affadissement et non plus diversité. L’information était banalisée au point d’être dévaluée, répétée en boucle à l’image d’un matraquage publicitaire, jusqu’à diluer les événements en une bouillie d’informations qui accompagnait l’individu tout au long de sa journée. Où était la noblesse du métier de journaliste ? Les nouvelles n’étaient qu’une toile de fond pour les médias, un espace d’animation dont on ne percevait plus très bien le rapport avec le réel. Il était temps de revaloriser l’information et ceux qui la faisaient. Il était temps de payer des droits d’auteur à ceux qui se mouillaient réellement pour raconter ce qui se passait à travers le monde.

Dans un commentaire de la décision rendue à propos de Morandini, on peut lire ceci : “Même sur Internet, le journaliste se doit d’aller chercher lui-même l’information !”. Vous voyez donc que l’on n’est plus très loin de l’histoire imaginée par Claude Ecken.

Eye of the Holder - Photo CC by familymwr retouchée par Owni

JO 2012 © : cauchemar cyberpunk

JO 2012 © : cauchemar cyberpunk

Dans la littérature cyberpunk, de grandes firmes ont supplanté l'État, qui leur a octroyé des pouvoirs exorbitants. Ce ...

Information wants to be free… c’était le rêve qu’avait fait la génération qui a assisté à la mise en place d’internet, puis du web, et ce rêve était beau. Mais la puissance de la pulsion appropriatrice est si forte que c’est une dystopie imaginée par la science-fiction qui est en train de devenir réalité, à la place de l’utopie d’une information libre et fluide. Avec l’information brute, c’est la réalité elle-même que l’on rend appropriable, ce qui rappelle également les dérives dramatiques que l’on avait pu constater lors des derniers Jeux Olympiques de Londres, à l’occasion desquels les autorités olympiques avaient défendu leurs droits exclusifs sur l’évènement avec une férocité alarmante.

Il existe pourtant une autre façon de concevoir les choses, à condition de quitter le prisme déformant des droits exclusifs. Au début de la polémique sur la Lex Google, j’avais en effet essayé de montrer que l’on peut appliquer le système de la légalisation du partage non-marchand aux contenus de presse et que si on le couple à la mise en place d’une contribution créative, il pourrait même assurer aux éditeurs et aux journalistes des revenus substantiels tout en garantissant la circulation de l’information et la liberté de référencer.

L’information veut être libre, mais il nous reste à le vouloir aussi.


“Without a Face, a portrait of the Soul”Photo CC [by] familymwr ; “paranoia”Photo CC [byncsa] perhapsiam ; “Eye of the Holder” – Photo CC [by] familymwr, retouchée par Owni.
Image de une : “La Gioconda avec Paper Bag”Photo CC [bync] Otto Magus.

]]>
http://owni.fr/2012/11/22/le-prix-de-l-information/feed/ 13
Ados et parents ne se parlent pas Net http://owni.fr/2012/11/21/ados-et-parents-ne-se-parlent-pas-net/ http://owni.fr/2012/11/21/ados-et-parents-ne-se-parlent-pas-net/#comments Wed, 21 Nov 2012 15:52:25 +0000 Claire Berthelemy http://owni.fr/?p=126380

Les enfants et adolescents ne communiquent pas avec leurs parents, enfin pas sur le numérique. C’est ce que constate Marie Derain, défenseure des enfants, qui a rendu son rapport hier, le 20 novembre. En substance, elle observe dans “Enfants et écrans : grandir dans le monde numérique” [PDF] une scission entre les utilisateurs (les plus jeunes) et les régulateurs familiaux (les parents la plupart du temps) :

Le contraste est frappant entre la vision méfiante, voire diabolisante, que peuvent avoir les adultes de l’usage du numérique par les adolescents, qui, eux, voient ces vecteurs de communication comme un élément banal de leur quotidien. [...] Les adolescents ne seraient pas conscients des risques de divulgation et de perte de contrôle de leurs informations personnelles. Pourtant, les jeunes adolescents ne sont pas si démunis. Au contraire, ils semblent agir en connaissance de cause, quitte à courir ces risques. [...] Les incertitudes et les angoisses, les interrogations sur son avenir se dissolvent dans un univers virtuel où il reprend la main, qu’il maîtrise via son avatar numérique. Aux confins du réel et du virtuel, du présent et du possible, c’est l’aventure sans risque, la prise de risque sans conséquence, l’expérimentation sans trace ni témoin, du moins l’adolescent veut-il le croire. L’exposition de la vie privée prend alors un autre sens.

La défenseure a conscience de l’ambivalence que peut représenter Internet pour les plus jeunes et elle précise que l’idée générale du rapport veut montrer qu’il est nécessaire de “rapprocher Internet de la famille”. En soulignant que :

Porteurs d’un potentiel d’enrichissement social et individuel encore mal évalué car évolutif, facteurs indéniables de lien social et de dépassement des barrières, ces médias qui s’avèrent aussi vecteurs de connaissances et d’éducation pour tous, ne sont pourtant pas sans risques pour les enfants.

Le manque de paroles

Selon le baromètre “Enfants et Internet” de 2011 de l’opération nationale de sensibilisation “Génération numérique”, 87% des 15-17 ans déclarent connaître les paramètres de confidentialité (ils sont 22% de cette tranche d’âge à ne pas protéger leurs informations personnelles sur les réseaux sociaux), contre 56% des 13-15 ans et 42% des 11-13 ans. Bien peu donc pour la défenseure au regard de ce que les enfants postent à droite et à gauche sur le web. Selon ce même baromètre, 20% des 15-17 ans, 28% des 13-15 ans et 22% des 11-13 ans parlent avec leur proche de leur utilisation du Net. Mais de quoi parlent-ils ? Du temps passé sur la Toile (55% des 8-17 ans selon une enquête de la TNS Sofres). Dans le temps de connexion, il n’y a pas de place à l’utilisation des réseaux et autres sites de partage, vecteurs de lien social — et par conséquent de dépôt de photos qu’on aimerait pas forcément retrouver distillées un peu partout.

Certes. Pour la défenseure :

Il convient de trouver le juste équilibre entre la prévention des risques et la limitation des possibilités.

Mais ce juste milieu aristotélicien pourrait être alors trouvé grâce à des programmes de régulation du Net ? Pas si l’on tient compte de la constitution même du réseau “difficile voire impossible à réguler”. Le seul moyen de réguler Internet n’est autre qu’une forme de discussion entre les acteurs, de l’internaute aux FAI et… de rendre possible — “afin de lutter contre les comportements qui viennent d’être évoqués [pédopornographique, ndlr]“ — le signalement plus rapide de ces comportements.

Formation des profs et des proches

Le dialogue à instaurer avec les acteurs de la socialisation des enfants (la famille et l’école) est l’une des solutions complémentaires à la répression ou la régulation, “difficile voire impossible” donc. Quand les classes sont abreuvées de matériel technologique alors même que les professeurs ne sont pas tous enclins à s’en servir, c’est une difficulté.

Assurer une formation effective aux TICE des principaux acteurs intervenant auprès des enfants (professeurs, éducateurs, animateurs…) — abordant aussi bien la sensibilisation aux risques, les informations sur les systèmes de protection, que l’accès à la culture et à la connaissance. Trop d’initiatives coûteuses voulant mettre en œuvre les ressources numériques à l’école, dans le monde de la culture, de la santé, des loisirs, achoppent faute d’une formation adaptée réellement dispensée aux intervenants, contribuant ainsi à une image de confusion et à la mauvaise utilisation de ces ressources pourtant considérables.

Collégien suréquipé édition limitée

Collégien suréquipé édition limitée

Le bon vieux dictionnaire comme cadeau à l'entrée au collège, c'est terminé : cette année les élèves de 6e du ...

Et si l’Éducation nationale semble prendre conscience progressivement de l’importance que revêt Internet aujourd’hui pour les enfants – et leurs parents – Marie Derain explique que “si les expériences locales foisonnent, l’impulsion institutionnelle est difficile à repérer”.

D’autant que ces dernières s’emmêlent et se renvoient la balle : les ordinateurs distribués aux élèves de sixième du Val-de-Marne seront gérés par des enseignants dont la formation devrait être assurée par… le rectorat. Soit l’académie de Créteil, distincte du Conseil Général du Val-de-Marne à l’origine du programme.

Pourtant, l’enthousiasme est là :

Partout en France, à partir d’engagement personnel des enseignants ou sous l’impulsion d’un recteur dynamique, les outils sont testés, les pédagogies qui s’appuient sur le numérique sont formalisées, faisant émerger quelques orientations.

À souhaiter que le relais soient pris par les enseignants, en complément des parents, pour permettre aux enfants d’appréhender le Net en évitant de vouloir à tout prix une régulation impossible. Pour aider à maitriser l’extimité des enfants ? Le droit à l’oubli numérique pour garantir “la paix et la cohésion sociale”.

Alex Türk, alors président de la Cnil, déclarait en 2009, dans le rapport d’activités, qu’il était “inacceptable et dangereux que l’information mise en ligne sur une personne ait vocation à demeurer fixe et intangible, alors que la nature humaine implique, précisément, que les individus changent, se contredisent, bref, évoluent tout naturellement”. Tout adolescent devenu adulte devrait pouvoir alors “obtenir la suppression de données personnelles qu’il a lui-même mises en ligne” selon ledit rapport. Parce que la diffusion de l’information “est large” mais aussi et surtout parce que

la vie “virtuelle” de l’enfant n’est désormais plus dissociable de sa vie “réelle”, elle en fait partie.

Préconiser l’oubli et l’effacement est une solution qui ne règlerait rien d’autre que l’absence de réflexion au moment de poster sur Facebook une photo à demi-nu. Le droit au déréférencement permettrait aussi “à la personne concernée de demander et d’obtenir la suppression du référencement des informations en question, dans les moteurs de recherche par exemple. Ainsi les données devenues indésirables disparaîtraient non seulement du site où elles ont été initialement introduites, mais aussi de tous les sites qui les ont reprises et diffusées” :

Intégrer le droit au déréférencement au règlement européen actuellement en préparation. Faire reconnaître aux mineurs le droit à une protection renforcée de leur vie privée — droit à l’oubli, droit au déréférencement. En janvier 2012, la Commission européenne a rendu publique une proposition de règlement européen, réformant le cadre de la protection des données personnelles, qui propose plusieurs avancées dans la protection des enfants. En effet, le droit actuel de la protection des données est limité en ce qui concerne les enfants.

Le droit à l’oubli, maille d’un nouvel arsenal juridico-legislatif pour encadrer et “protéger”. Et pallier, sans doute, l’absence ou la pauvreté du dialogue entre ceux qui éduquent et ceux qu’on veut éduquer. Reste à déterminer si les uns ne devraient pas, finalement, être éduqués avant les autres.


Illustration par Soosay [CC-by]

]]>
http://owni.fr/2012/11/21/ados-et-parents-ne-se-parlent-pas-net/feed/ 10
Jean-Pierre Pernaut journaliste avant-gardiste http://owni.fr/2012/11/19/jean-pierre-pernaut-tf1-wikipedia/ http://owni.fr/2012/11/19/jean-pierre-pernaut-tf1-wikipedia/#comments Mon, 19 Nov 2012 11:44:15 +0000 Jean Marc Manach http://owni.fr/?p=126148

Jean-Pierre Pernaut n’est pas un présentateur populiste, mais un journaliste “avant-gardiste“. C’est ce qu’a écrit un employé de TF1 sur Wikipédia. Faute de s’être identifié sous pseudonyme, l’admirateur du présentateur a modifié la page Wikipédia en y laissant apparaître l’adresse IP de son employeur. La consultation des pages modifiées par les ordinateurs de TF1 révèle des dizaines de caviardages visant, essentiellement, à polir et améliorer l’image de Patrick Poivre d’Arvor, Jean-Pierre Foucault, mais aussi et surtout Jean-Pierre Pernaut.

Le 1er février 2007, entre 11h46 et 12h06, une petite main de TF1 modifie 9 fois la fiche Wikipédia de Patrick Poivre d’Arvor. Sont notamment effacés, dans leur totalité, la partie intitulée vie privée évoquant sa vie “d’homme à femme“, l’enfant caché qu’il a eu avec Claire Chazal et sa légion d’honneur, ainsi que ses manquements à la déontologie journalistique, de l’interview truquée de Fidel Castro à sa condamnation pour recel d’abus de biens sociaux dans le procès Michel Noir – Pierre Botton.

Liste des modifications sur la page Wikipédia de PPDA le 1er février 2007

Liste des modifications sur la page Wikipédia de PPDA le 1er février 2007 : en vert, le nombre de caractères rajoutés, en rouge, ceux qui ont été effacés.

Le 26 février, quelqu’un, à TF1, caviarde la fiche Wikipédia de Nathalie Marquay, pour effacer le passage évoquant l’idylle présumée de l’ex-miss France -et compagne de Jean-Pierre Pernaut- avec Daniel Ducruet -l’ancien mari de Stéphanie de Monaco- lors de leur participation à la Ferme Célébrités, une émission de télé-réalité de TF1, et le fait que cela aurait remis leur projet de mariage en question.

Le 7 septembre 2007, un autre employé de TF1 efface par deux fois, 12h45 et 12h54, le fait que Jean-Pierre Foucault avait parrainé la Life Parade, une association “pro-vie“, donc un peu anti-avortement, et qui milite actuellement contre le mariage des homosexuels.

Comment attribuer une adresse IP sur Wikipédia ?

Il suffit de faire un Whois sur l’adresse IP à l’origine de la modification ou du caviardage pour savoir à qui cette adresse IP appartient.

Concrètement, il suffit, sur Wikipedia, de cliquer sur l’adresse IP, puis, tout en bas de la page des contributions de l’utilisateur, de cliquer sur le lien Whois… ce qui permet de découvrir qu’il s’agit bien de l’une des adresses IP de TF1.

Le 19 septembre 2007 à 17h27, c’est la propre fiche Wikipédia de Jean-Pierre Pernaut qui est modifiée depuis le siège de TF1, afin d’y préciser qu’il n’a pas voulu rendre le journal de 13 heures plus “populaire“, mais plus “proche des préoccupations quotidiennes“, et que son journal télévisé, suivi chaque jour par 7 à 8 millions de personnes, connaît donc “une part d’audience supérieure à 50 %, un cas unique dans l’audiovisuel européen“. Accessoirement, la même petite main rajoute qu’il s’est bel et bien marié avec Nathalie Marquay, mais efface d’un trait le fait qu’”il est aussi le premier animateur de télévision à montrer ses enfants dans une émission de télé-réalité (”La Ferme Célébrités”)“.

Le 27 février 2008, à 16h14, un admirateur de Jean-Pierre Pernaut, utilisant opportunément un ordinateur sis à TF1, caviarde proprement l’intégralité du passage évoquant la subvention de 200 000 € accordée par l’office de tourisme du canton de M. Estrosi, dans les Alpes-Maritimes, afin que ledit Pernaut Jean-Pierre puisse concourir au Trophée Andros au volant d’une Fiat aux couleurs des Alpes-Maritimes, avant de préciser, à 16h19, qu’il y a participé “aux côtés d’Alain Prost“.

Le 21 avril 2008, à 16h13, un apprenti wikipédien de TF1 gomme d’un trait le passage de la fiche de Jean-Pierre Foucault consacré aux “moments forts” de son émission “Sacrée Soirée“, et notamment la bourde qu’il avait commise en direct, lorsque, voulant rappeler le titre de la chanson “À l’envers à l’endroit” de Karen Cheryl , il l’avait rebaptisée “Par devant par derrière“…

Le 29 mai 2008, à 11h36, les accusations de “désinformation” dont il fait l’objet, mentionnant plusieurs des articles critiques que lui a consacré l’observatoire des médias Acrimed, sont effacées, et remplacées par un panégyrique qualifiant le présentateur du JT de 13h d’”avant-gardiste” :

Mais le succès du film “Bienvenue chez les Ch’tis” fait maintenant de Jean-Pierre Pernaut un “avant-gardiste” qui met en avant depuis 20 ans l’intérêt des Français pour les cultures et le patrimoine des régions.

A 11h42, le caviardage était annulé, et les accusations de désinformation remises en ligne.

Le 18 juillet 2008, à 8h33, la petite main de TF1 revient à la charge, pour préciser que les accusations de désinformation émanent de “détracteurs dans quelques titres de la presse parisienne“.

Le 31 janvier 2009, à 15h59, le copain de Jean-Pierre Pernaut à TF1 s’offusque de découvrir que son poulain est présenté comme “l’un des présentateurs de journal télévisé parmi les plus populaires derrière Patrick Poivre d’Arvor et Harry Roselmack“, et supprime la référence à ses deux collègues mais néanmoins rivaux, tout en précisant qu’”il est régulièrement classé parmi les 20 Français qui “comptent le plus” dans le baromètre du JDD“. Accessoirement, il efface également le décryptage solidement argumenté de son Journal de 13h, basé sur les travaux des journalistes Isabelle Roberts et Raphaël Garrigos, Ignacio Ramonet ou Serge Halimi, ainsi que le livre de Roger-Gérard Schwartzenberg sur la “maldémocratie“, pour qui le JT de Jean-Pierre Pernaut représente une “dérive démagogique, et dangereuse, des médias français“.

Cliquer ici pour voir la vidéo.


Pernaut au pays des merveilles par Bastien Hugues

Le passage censuré ayant été remis en ligne, le caviardeur masqué de TF1 ressort ses gros ciseaux le 4 février 2009, à 16h08, caviardage censuré dans la foulée par Salebot, le robot chargé de traquer le “vandalisme” sur Wikipédia. Ce petit manège se reproduira à 16h11, 16h15, 16h17, 16h18, jusqu’à ce qu’à 16h21, lorsqu’Hégésippe Cormier, administrateur de Wikipédia, ne décide de bloquer la page au motif qu’elle était vandalisée “par une adresse IP du groupe TF1“… ce qui n’empêchera pas notre petit censeur de réitérer le 4 septembre 2009, à 7h42, puis le 21 septembre à 8h30 au motif, cette fois, que “toute cette partie de la bio de JP Pernaut est une analyse “à charge” et totalement partisane” :

Elle ne mérite pas d’ête (sic) dans une encyclopédie de ce type. Par ailleurs, dans le texte publié précédemment figurent des informations mensongères et insultantes destinées à lui nuire, justement pour étayer cette analyse à charge. A supprimer.

Le 18 mai 2009, à 10h01, le petit cachotier de TF1 efface le passage consacré au fait que Jean-Pierre Pernaut, qui n’a de cesse de dénoncer le gaspillage des deniers publics dans son émission “Combien ça coûte“, se serait “engagé à renvoyer l’ascenseur en consacrant des reportages de son journal télé aux stations du Mercantour” après que l’office du tourisme des Alpes Maritimes a financé, à hauteur de 200 000 €, sa participation au Trophée Andros… qualifiant le Conseil général des Alpes-Maritimes de “partenaire” qui l’aurait financé “dans le cadre d’une opération de communication pour les stations de sports d’hiver du Mercantour“.

Le 5 octobre 2009, à 10h21, un certain JP Pernaut caviarde l’intégralité du long passage consacré à son Journal de 13h, et s’en explique :

J’ai déjà demandé que cette partie soit supprimée. Elle est basée sur des informations fausses et uniquement “à charge”, que ce soit sur les grèves, ma participation à une compétition sportive automobile, etc…. A chaque fois, ces commentaires fallacieux sont remis sur le site. Merci d’y prendre garde. JP Pernaut.

Las : Salebot veille décidément au grain, et remet en ligne le passage caviardé dans la minute qui suit. Cette “remarque d’un contributeur utilisant une IP de TF1” n’en sera pas moins commentée sur la page Discussion de la fiche Wikipédia de Jean-Pierre Pernaut, où il est réclamé au présentateur du JT de “faire le distinguo entre ce qui serait simplement erroné (“faux”) et ce que vous considérez comme “à charge”“… ce qui entraînera d’ailleurs plusieurs utilisateurs de Wikipédia à préciser ce qui, pour le coup, lui est reproché.

Le 29 janvier 2011 à 16h48, le caviardeur masqué de TF1 efface le passage évoquant l’apparition de Nathalie Marquay dans un téléfilm érotique sur M6, puis précise, à 16h50, qu’elle a terminé “2ème du Trophée Andros féminin” de course automobile sur glace.

Le 20 mars 2012, à 16h53, le rectificateur masqué de TF1 qualifie d’”estimation purement fantaisiste” le salaire de 55k€ par mois que toucherait Jean-Pierre Pernaut. A 17h35, il corrige par ailleurs le passage évoquant l’annulation de la pièce de théâtre Magouilles.net qu’il préparait avec sa femme Nathalie Marquay, pour y préciser que, retitrée “Pièges à Matignon“, elle “raconte avec humour l’histoire d’un homme politique piégé par des rumeurs sur internet qui ruinent sa vie publique et privée“, et que, initialement reportée, elle avait finalement été prolongée.

La même petite main, à 17h49 précise que Jean-Pierre Pernaut à été “réélu en mars 2012 pour une période de deux ans avec 64% des voix” en tant que représentant CFTC, CGC et FO des cadres et des journalistes.

Le 28 juin 2012, à 16h15, le Wikipédien masqué de TF1 tient par ailleurs à préciser que, “à nouveau prolongée pour son succès, la pièce est jouée à Paris jusqu’au 30 juin 2012 et une tournée en régions est prévue à partir de janvier 2013“. A 16h30, il souligne également que “Jean-Pierre Pernaut restera le présentateur de télévision qui a présenté le plus d’émissions en direct et en prime time“.

Il restera aussi comme l’un de ceux qui ont le plus tenté de caviarder Wikipédia. En vain : les critiques dont fait l’objet son JT de 13h constituent plus de la moitié de la fiche qui lui est consacrée.


Fabuleux loltoshop par Ophelia Noor pour Owni /-)

]]>
http://owni.fr/2012/11/19/jean-pierre-pernaut-tf1-wikipedia/feed/ 73
Wikipédia (toujours) prof de raison http://owni.fr/2012/11/05/wikipedia-toujours-prof-de-raison/ http://owni.fr/2012/11/05/wikipedia-toujours-prof-de-raison/#comments Mon, 05 Nov 2012 11:56:23 +0000 Antonio A. Casilli http://owni.fr/?p=125018 Addicted to bad ideas, Antonio Casilli poursuit son exercice de passeur entre Wikipedia et le monde de l'enseignement et pose notamment la question du rôle social du vandale au coeur de l'encyclopédie en ligne. ]]>

L’ombre du vandalisme se projette sur les controverses de Wikipédia. Dans l’exemple de la page sur la précarité, présenté dans l’épisode précédent de notre chronique, avant qu’une solution ne soit trouvée il aura fallu que le soi-disant contributeur catholique soit accusé d’avoir “usurpé” et “défiguré” l’article en question.

Afin de mettre un terme à ses modifications non sollicitées, les contributeurs d’obédience marxiste ont dû déposer auprès des développeurs de Wikipédia une demande de semi-protection de la page en question, assimilant de facto toute expression de contestation à un acte de vandalisme.

Personnellement, j’avais des réticences vis-à-vis de cette conclusion, mais elle ne me surprenait point. Ce sont des accusations courantes dans le contexte de Wikipédia. Certaines des disputes qui s’y élèvent ne peuvent tout simplement pas être réglées publiquement.

Lorsque les opinions sont par trop clivées, les comportements deviennent violents. C’est à ce moment que la négociation échoue et le dénigrement des adversaires s’installe. Selon les dires du sociologue Nicolas Auray :

Alors que les crispations ou escalades dans la polémique ne parviennent que difficilement à se “reverser” dans une confrontation raisonnée d’arguments, il semble que le mécanisme adopté par Wikipédia soit de tenter d’imputer à une “faute” personnelle, commise par un fauteur de trouble ou un persécuteur, la responsabilité du dérapage.

Prenons cet exemple : en 2010, sur la liste de diffusion Wiki-research a été diffusée une base de données des pages les plus “reversées” (revenues à une version précédente après que des changements ont été révoqués). Nous sommes là face à un corpus des plus intéressants. Pour chaque article de Wikipédia, le ratio de réversion (à savoir : la proportion entre les changements invalidés et le nombre total des modifications) est un indicateur fiable du taux de vandalisme. Une analyse rapide fournit un bon aperçu du profil des vandales qui s’attaquent à la célèbre encyclopédie libre.

Categories of top 100 Wikipedia articles by reverts ratio

Les pages les plus ciblées relèvent de certaines catégories assez prévisibles, tels le sexe (16%), les excréments (7%), et les insultes (7%). Le genre d’humour puéril qui nous amènerait à penser que le vandalisme sur Wikipédia est circonscrit aux adolescents et aux jeunes adultes. Et le fait que les années 1986-1992 soient les plus “reversées” semble tout autant corroborer cette hypothèse. Il semblerait que les usagers éprouvent une forte envie de vandaliser leur propre année de naissance… Toutefois, parmi les principales cibles nous trouvons des articles tels “Incas” ou “renaissance italienne”. N’étant point les thèmes de choix de blagues pipi-caca, ces sujets nous aident à avancer une autre explication : les pages qui font l’objet de l’attention des vandales coïncident avec des contenus qu’ils croisent quand ils compulsent l’encyclopédie à la recherche de matériel à copier/coller pour leurs devoirs. Il existe un lien entre le comportement turbulent des 18-24 ans utilisateurs de Wikipédia et une certaine frustration culturelle, marque de la socialisation scolaire (et universitaire).

Ce qui conduit à un autre résultat frappant. Parmi les usagers anglophones, la plus forte concentration de contributeurs troublions (dans la mesure où leur nombre est proportionnel aux articles avec le plus haut ratio de réversion) est aux États-Unis. “Amérique” est le numéro 1 des articles vandalisés pour sa catégorie (40,9%). Neuf des dix articles les plus vandalisés dans la catégorie “batailles”, ont trait à des événements historiques qui ont eu lieu aux États-Unis ou au Canada. Parmi les “pages de discussion” les plus ciblées, celles des célébrités (Zac Efron, les Jonas Brothers…) ou des personnages historiques (Benjamin Franklin, George Washington…) Nord-américains.

Portrait-robot

Alors, qui sont-ils, ces vandales de Wikipédia ? Leur portrait-robot se dessine peu à peu : ils sont jeunes, ils ont de bien solides références culturelles américaines, ils sont assez geek sur les bords. Ils fréquentent les sections de l’encyclopédie dédiées aux sciences et aux mathématiques plutôt que celles des sciences humaines. Ils bataillent sur des listes de sujets tels les dessins animés, les jeux vidéo, les nombres premiers, et ainsi de suite.

Quel sens donner à ces résultats ? L’article “Vandalisme” du Wikipédia anglais met beaucoup d’emphase sur l’argument avancé par Pierre Klossowski selon lequel leur sabotage pourrait être considéré comme une sorte de guérilla culturelle contre une hégémonie intellectuelle oppressante. Le vandale, je cite, “n’est lui-même que l’envers d’une culture criminelle”. Pourtant cette notion de “d’envers”, bien que conceptuellement liée à celle de “réversion”, ne signifie pas seulement un opposé dialectique. Le vandalisme est également une image en miroir du consensus général sur lequel les articles de Wikipédia sont bâtis. En un sens, les vandales – en tant que groupe contribuant de sa manière perturbatrice à la construction sociale de la connaissance au sein de l’encyclopédie en ligne – peuvent et doivent être considérés comme un double renversé des wikipédiens dans leur ensemble.

En guise de conclusion, j’avancerai la supposition éclairée que les préoccupations culturelles, la composition démographique et les intérêts des utilisateurs s’adonnant à des actes de vandalisme, ne diffèrent pas considérablement de ceux de contributeurs réguliers. Si les utilisateurs de Wikipédia, comme l’affirme Michael D. Lieberman, dévoilent leurs intérêts, leurs coordonnées géographiques, et leurs relations personnelles à travers leurs modèles de contribution, cela vaut également pour leurs homologues vandales.

Wiki prof de raison

Wiki prof de raison

Wikipédia effraie les enseignants. Qui l'accusent de se tromper et de ne pas stimuler l'esprit critique. Comme si Wikipédia ...

Vigilance participative

La liste des pages les plus reversées publiée sur Wiki-research pourrait nous aider à voir comment le vandalisme s’accumule au fil des sujets, la façon dont il se structure, offrant ainsi un panorama ô combien utile, des préférences culturelles (et des biais culturels correspondants) de la communauté Wikipédia dans son entièreté.

Le vandalisme ne représente pas nécessairement une contre-culture en lutte face à une puissante élite de sysadmins et d’éditeurs-vigiles. Nous pouvons admettre que Wikipédia, à un degré plus élevé que d’autres projets encyclopédiques, encourage la réflexivité dans la mesure où il montre que la connaissance n’est pas une collection de notions, mais un processus de collaboration en formation continuelle. Plusieurs acteurs participent à ce processus et contribuent à cette réflexivité par la négociation, par la controverse, par la sensibilisation, et (à mon avis) par le vandalisme. Visiblement, le rôle du vandalisme est généralement éclipsé par des comportements pro-sociaux. Mais en fait, le vandalisme stimule ces mêmes comportements pro-sociaux.

Considérez ceci : en moyenne, sur Wikipédia un acte perturbateur reste impuni pour à peine une minute et demi. Après ce bref laps de temps, les articles “défacés” finissent vraisemblablement par attirer l’attention des éditeurs, qui s’empressent d’annuler les modifications problématiques, rétablir la version précédente des pages vandalisées et possiblement les mettre sur leur liste de suivi. Peut-être, à ce point-là, les vandales vont-ils se désister. Ou peut-être continueront-ils. Quoi qu’il en soit, ils auront obligé les éditeurs à se pencher sur les articles ciblés. Ils auront contraint d’autres wikipédiens à réagir, à corriger, à organiser les contenus.

En fin de compte, les vandales auront accompli la fonction essentielle de susciter auprès des autres utilisateurs cette “vigilance participative” que Dominique Cardon identifie comme le moteur de la gouvernance de Wikipédia. Par leurs modifications provocatrices ou destructrices, ils revivifient l’attention pour des sujets depuis longtemps figés, ils stimulent les discussions en sommeil, ils réveillent les consciences. Ainsi, ils obtiennent le résultat paradoxal de favoriser la coopération par l’abus, la participation par la discorde – et la connaissance par l’ignorance.


Article publié en anglais sur Bodyspacesociety, le blog d’Antonio A. Casilli (@bodyspacesoc).
Illustration d’origine par Loguy pour Owni /-)

]]>
http://owni.fr/2012/11/05/wikipedia-toujours-prof-de-raison/feed/ 32
Wiki prof de raison http://owni.fr/2012/10/29/wiki-prof-raison-wikipedia-ecole-education/ http://owni.fr/2012/10/29/wiki-prof-raison-wikipedia-ecole-education/#comments Mon, 29 Oct 2012 06:15:07 +0000 Antonio A. Casilli http://owni.fr/?p=123667

À l’occasion de cette rentrée universitaire, mes collègues enseignants et moi-même avons décidé d’ajouter une pincée de wiki à deux cours que nous donnons à Telecom ParisTech : j’ai créé un wikispace pour mon enseignement sur les cultures numériques, et, avec Isabelle Garron et Valérie Beaudouin, nous avons demandé aux étudiants de première année de tenter d’éditer et de discuter au moins une page Wikipédia, au titre de leur initiation à l’écriture en ligne.

Naturellement, Wikipédia est employé comme outil d’enseignement à l’université depuis plusieurs années, et sa popularité en tant qu’objet de recherche s’accroît de jour en jour. Mais la principale raison de son emploi en classe tient dans son évolution en tant qu’étape préliminaire dans les recherches bibliographiques et les démarches de fact-checking.

Songez à vos propres habitudes vis-à-vis de la quête d’information en ligne. Que faites-vous quand vous ignorez tout sur un thème ? Vous le googlisez probablement, et la première occurrence à apparaître est le plus souvent une page du site Web de Jimbo Wales.

Vous le faites, nous le faisons, nos étudiants le font aussi. En conséquence, avons nous intégré Wikipédia, non pas parce qu’il est un gadget sympa, mais parce que si nous ne l’avions pas fait nous aurions laissé s’installer un dangereux angle mort dans nos activités pédagogiques.

90-9-1

Admettre cette réalité sans céder à la panique n’est pas simple. Du moins ici en Europe, des jugements erronés sur la prétendue piètre qualité des articles de Wikipédia perdurent encore dans le monde de l’éducation. Certains, comme le professeur de lycée Loys Bonod, qui a connu ses quinze minutes de gloire cette année, s’empressent d’inclure des informations fausses et trompeuses dans Wikipédia, juste pour apporter à leurs élèves la démonstration que… Wikipedia contient des informations fausses et trompeuses.

Le paradoxe de telles réactions représente une bonne illustration du fait que l’exactitude et l’intelligence de Wikipédia sont au diapason de l’exactitude et de l’intelligence de ses contributeurs. D’où la nécessité d’encourager les utilisateurs à abandonner leur attitude passive et à participer en écrivant et en discutant de leurs sujets.

Bien sûr, certains pourraient invoquer pour Wikipédia la soi-disant loi d’airain de la participation sur Internet : le principe “des 90-9-1″,  selon lequel un article aura une majorité écrasante de simples lecteurs, quelques contributeurs qui feront l’effort d’apporter des modifications, et de très rares usagers suffisamment motivés pour se rendre dans les pages de discussion et engager un dialogue avec les autres wikipédiens.

Les sciences sociales peuvent apporter plusieurs éléments d’explication à ce phénomène. L’avènement d’une culture de la participation, sur les réseaux, a pu être largement exagérée. Peut-être la structure de l’encyclopédie tend-elle à recréer des dynamiques culturelles qui reproduisent l’opposition entre auteur et lecteur — au lieu de stimuler une polyphonie des contributions. Ou peut-être encore les éditeurs de Wikipédia cherchent-ils à intimider les autres utilisateurs dans un effort d’accentuer leur statut social en rendant leurs activités moins accessibles.

Lévi-Strauss

Essayez de créer un nouvel article. Très vraisemblablement, sa pertinence sera mise en doute par un éditeur. Essayez de rédiger une biographie d’un personnage public vivant. Il y aura de grandes chances pour qu’une discussion en découle, qui portera non pas sur le personnage public en question, mais davantage sur les qualités privées de son biographe. L’auteur a-t-il juste une adresse IP anonyme ? Ou bien il est un utilisateur enregistré, avec son propre compte permettant de tracer dans le temps ses contributions ?

Et ce qui est vrai pour les personnes vivantes peut l’être aussi pour les personnes décédées, comme j’ai pu le constater. Par exemple le 3 novembre 2009 à 15h34, à travers une liste de diffusion universitaire, je reçois un email du président de l’établissement pour lequel je travaillais. Cet email annonçait qu’“à l’âge de 100 ans, notre collègue Claude Lévi-Strauss était décédé”.

Conscient que cette information était intéressante pour un large public, et qu’elle provenait d’une source fiable, je l’ai publiée sur Wikipédia. J’ai mis à jour la page consacrée à Lévi-Strauss en introduisant la date de son décès. Sans trop me soucier de me connecter via mon profil. J’assumais, en effet, que mon adresse IP (j’écrivais de mon bureau) aurait de quelque manière cautionné ma contribution.

Cependant, alors que je sauvegardais ces changements, un message apparut m’informant que l’adresse IP en question avait été identifiée comme attribuée par le réseau informatique de mon université et qu’à ce titre ces changements apparaissaient sujets à caution. Un éditeur devait les valider. Mais il ne le fit pas. L’information que j’avais apportée avait été jugée “sans fondement”. L’argument d’autorité, le fait d’écrire de l’intérieur de la même institution dans laquelle Claude Lévi-Strauss avait enseigné, ne semblait pas recevable. La page fut modifiée quelque temps après par une personne pouvant inclure un lien avec la dépêche AFP annonçant la mort du chercheur.

L’épisode ne représente qu’une illustration de la manière dont l’autorité intellectuelle se remodèle dans un environnement ouvert, de mise en commun des connaissances tel Wikipédia. La posture universitaire du parler “ex cathedra” (en l’occurrence “ex adresse IP”) est questionnée de manière saine, quoique frustrante pour les universitaires. L’enjeu ne se limite plus au statut intellectuel des institutions savantes de nos jours, mais bien à la façon dont l’information est validée.

Notoriété

Vous avez probablement en mémoire ces bannières Wikipédia vous signalant qu’il existe un désaccord quant à la neutralité d’une page. En un sens, chaque page Wikipédia pourrait en contenir une, puisque chaque page procède, plus ou moins, de sa propre controverse interne. Les auteurs de chaque article se disputent sur comment ce dernier est argumenté, classé, référencé. Ou alors sur l’ajout de liens externes et sur l’orthographe de certains noms. Mais la plupart du temps, ils se disputent sur le point de savoir si les sujets sont ou pas “notoires” — c’est à dire, dans le jargon wikipédien, s’ils donnent ou pas matière à un article. Au cours des années, ces différends sont devenus si fréquents que Wikipédia a fini par proposer ses propres critères généraux de notoriété, ainsi qu’une liste de PàS (pages à supprimer) actualisée chaque jour.

Les analystes de la Fondation Wikimédia ont imaginé un moyen simple et élégant d’évaluer les controverses sous-jacentes auxdites pages. Il s’agit de Notabilia, un outil graphique permettant de détecter des structures distinctives de ces débats, qui peuvent aboutir autant à des décisions consistant à “supprimer” qu’à “garder” un article.

Comme des opinions antinomiques ont tendance à se compenser, les pages qui font l’objet de fortes controverses ou de discussions animées entre partisans ou adversaires d’un sujet donné dessinent des lignes plus ou moins droites. Tandis que les discussions plus consensuelles tracent des lignes en forme de spirales, qui convergent vers un accord.

L’impact et le sens de telles discussions entre contributeurs mettent en évidence l’existence de vibrantes communautés qui s’agrègent autour de sujets bien déterminés. À telle enseigne qu’actuellement on peut définir Wikipédia comme un service de réseautage social comme les autres. Finalement, ses utilisateurs partagent leurs intérêts sur leurs profils comme on peut le faire sur Google+, ils gagnent des badges comme sur Foursquare, discutent publiquement comme sur Twitter et leur vie privée est constamment mise à mal — comme sur Facebook.

Ces fonctionnements, en principe, permettent de travailler de manière collaborative et de repérer les erreurs factuelles rapidement et de façon transparente. Cependant, ils introduisent certaines particularités dans les processus de validation de l’information présentée sur Wikipédia. La confiance et la sociabilité bâties par les contributeurs influencent profondément la perception de la qualité de leurs articles. Ainsi, comme dans n’importe quelle autre communauté épistémique, la confiance est affaire de contexte.

Elle dépend des réseaux de contacts qu’un auteur peut attirer à lui. À tel point que, selon certains chercheurs, la confiance que les usagers peuvent susciter sur Wikipédia s’apparente davantage à un produit dérivé de leur capital social, que d’une reconnaissance de leurs compétences (voir en particulier les travaux de K. Brad Wray “The epistemic cultures of science and Wikipedia”).

Un exemple que j’avais déjà évoqué dans mon livre Les liaisons numériques. Vers une nouvelle sociabilité ? peut illustrer ce phénomène. Il y a quelques années, une controverse sur la page consacrée à la précarité s’est élevée dans la version en langue anglaise de Wikipédia. En sciences sociales, la précarité se définie comme l’ensemble des conditions matérielles des travailleurs intermittents dans la société post-industrielle.

Les contours de cette notion ont été tracés par plusieurs auteurs issus du courant du marxisme autonome, tels Michael Hardt et Antonio Negri. Aussi, l’article a-t-il été affilié à la catégorie “syndicalisme”. Mais, un contributeur anonyme (vite surnommé “le catholique”) était d’un avis quelque peu différent. Il expliqua, à juste titre, que la notion de précarité avait été pour la première fois introduite par un moine français, Léonce Grenier (décédé en 1963), qui employa le terme pour mieux souligner la fragilité de la condition humaine face à la puissance divine. Son argumentaire avait du poids et ses références bibliographiques étaient correctes.

Toutefois, au lieu de défendre ses choix dans les pages de discussion, unilatéralement, il décida de rattacher l’article à la catégorie “christianisme social” et retira toutes les références aux mouvements syndicaux. L’épisode déclencha une vive dispute sur les réseaux. Très vite une lutte sans quartier éclata. Chaque nuit, le catholique rangeait l’article sous “christianisme”, chaque matin les marxistes protestaient avec véhémence et le rangeaient sous “syndicalisme”.

À ce moment-là je me suis demandé, comme des milliers de wikipédistes, à qui faire confiance. J’ai concédé que le contributeur catholique avait des arguments, mais je me suis aligné sur les positions des marxistes autonomes — en détaillant les raisons de ce choix dans un message. L’article devait entrer dans la catégorie du syndicalisme afin d’optimiser sa faculté à être référencé sur les moteurs de recherche.

Je pense ne pas avoir été le seul à adopter une réaction non académique. Wikipédia n’a pas vocation à atteindre une exactitude universelle, mais de parvenir à un consensus. À ce titre, beaucoup de wikipédiens vous affirmeront que leur encyclopédie n’est pas une démocratie, même si leurs processus de décision s’inspirent des principes de la délibération démocratique (voir à ce sujet le texte [pdf] de Laura Black, Howard Welser, Jocelyn Degroot et Daniel Cosely “Wikipedia is not a democracy”). Dans le cas que nous avons évoqué, puisque une polarisation partisane empêchait l’article d’évoluer, une simple règle majoritaire a été appliquée.

…À suivre dans le prochain épisode de cette chronique Addicted To Bad Ideas.


Illustration par Loguy pour Owni.

Article publié en anglais sur Bodyspacesociety, le blog d’Antonio A. Casilli (@bodyspacesoc).

]]>
http://owni.fr/2012/10/29/wiki-prof-raison-wikipedia-ecole-education/feed/ 31
Mission Lescure impossible http://owni.fr/2012/09/25/mission-lescure-impossible/ http://owni.fr/2012/09/25/mission-lescure-impossible/#comments Tue, 25 Sep 2012 18:47:51 +0000 Andréa Fradin http://owni.fr/?p=120938

Le badge officiel de la mission Lescure officielle

“Je trouve ça pourri !” La mission Lescure, lancée officiellement ce matin par la ministre de la Culture Aurélie Filippetti commence très fort. Interrogé à la fin de la conférence de presse par Owni sur le boycott annoncé, quelques heures plus tôt, dans les pages de Libération de certains acteurs du secteur, l’ancien boss de Canal Plus s’est dit “ulcéré” :

C’est tant pis pour eux ! Avec cette tribune, ils s’auto-condamnent, ne sont que dans des postures… C’est pourri et plein de mépris !

Pourriture vs caricature

Dans la dite tribune intitulée “Pourquoi nous ne participerons pas à la mission Lescure”, des représentants du collectif la Quadrature du Net, de l’association de défense des consommateurs UFC-Que choisir et d’un syndicat d’auteurs (le Samup) dénoncent “l’étroitesse de vue de la mission”, qualifiée de “caricature de débat démocratique”. Et égratignent au passage la tête de proue de la réflexion :

Lorsqu’on interroge Pierre Lescure sur sa nomination, il invoque deux qualités pour la justifier : ses relations amicales avec le chef de l’Etat (qui lui ont permis de proposer ses services), et la connaissance des distributeurs et producteurs qu’il doit précisément aux conflits d’intérêt qui devraient interdire de le nommer.

Œil pour œil, le coordinateur de cette mission sur l’Acte 2 de l’exception culturelle suggère une certaine proximité entre les réfractaires et certains gros bonnets du web :

Aucune ligne sur les géants du Net dans cette tribune… Ils auraient pu en parler ! Mais de toute façon, ils n’ont aucun intérêt à voir une régulation du Net !

Contacté par Owni, Édouard Barreiro, en charge des questions numériques à l’UFC répond “être contre la régulation Internet si c’est pour privilégier certaines choses et en empêcher d’autres.” Et de poursuivre :

On ne veut pas cautionner quelque chose qui va nulle part. D’autant plus que Pierre Lescure s’est répandu partout dans la presse sur ce qu’il fallait faire ou pas avant même le début de la discussion ! Par exemple, sur la licence globale “à deux balles”.

Une petite phrase glissée au détour d’une interview à la radio, et qui n’a évidemment pas manqué d’être relevée. A priori ce n’est que le début des réjouissances, même si Pierre Lescure s’est montré plus mesuré à l’occasion de la conférence de presse.

Solution composite

Ainsi, il s’est bien gardé de préconiser tel ou tel remède miracle en matière de culture-à-l-heure-du-numérique. Préférant parler de “solution composite”, incluant pêle-mêle offre légale élargie, régulation, prise en compte des échanges non marchands et “sans doute une tranche de licence globale.” Un mille-feuille extra-large pour une mission tout aussi généreuse. Qui a pour ambition de “lutter contre le téléchargement illégal” en levant les ”entraves au développement de l’offre légale”, tout en poursuivant des “objectifs économiques”, a indiqué la ministre. Et de rajouter :

L’aspect fiscal est un axe majeur du travail sur le financement à l’ère numérique.

Par là, comprendre le mise à contribution des fameux “géants du Net”, en ce moment mangés à toutes les sauces. Car tous les secteurs veulent leur part du gâteau gras de Google. L’industrie culturelle bien sûr, mais aussi la presse : une association, “de la presse d’information politique et générale” (IPG), a récemment déposé un projet de loi en ce sens.

Un dossier également suivi par la mission Lescure, auquel Aurélie Filippetti dit “réfléchir beaucoup.” Et qui vient s’ajouter à l’immense pile des affaires à régler d’ici le printemps 2012. “Car il n’y a pas seulement le cinéma” lance Pierre Lescure. Oh non, il y a aussi la musique, proche d’un certain équilibre certes loin “des années d’or”, le livre, où le “dialogue reste très difficile voire pernicieux”, la photographie, les jeux vidéo et donc, la presse.

“J’ai conscience que vous vous dites : ‘mais, comment vous pouvez faire tout cela en si peu de temps ?’”, lance Pierre Lescure, prudent.

Ca va être difficile. Je ne m’avoue pas vaincu par avance Aurélie [Filippetti, ndlr] mais ça va être dur !

Hadopi, business as usual

Hadopi, business as usual

L'Hadopi bouge encore. Mieux, elle a "accompli ses missions". A l'occasion d'une conférence de presse sur la "réponse ...

Les choses concrètes démarrent dès demain, avec l’ouverture de la centaine de consultations que la mission devrait tenir jusqu’en décembre. C’est notre chroniqueur Lionel Maurel (@calimaq) qui s’y colle en premier ; suivront des acteurs tels l’Alpa, Free, la SACD, Dailymotion ou encore le redouté Google. Le tout dans un esprit d’ouverture affiché.

Un blog participatif sera ainsi suivi et modéré. Certaines contributions pourront être l’occasion de rencontres avec l’équipe de la mission, en marge des auditions déjà fixées.

Un débat présenté comme “multiforme, ouvert et public” par la ministre. Afin de se démarquer de la méchante aura qui colle aux missions organisés sur le même thème par l’ancienne majorité. Se débarrasser de la poisse Olivennes, Zelnik, et bien sûr Hadopi… Dont il a été très peu questions lors de la conférence de presse.

Mais à voir les passes d’arme qui ont zébré la toute première journée de la mission Lescure, il semblerait que ces mauvais souvenirs soient loins d’être derrière nous…

]]>
http://owni.fr/2012/09/25/mission-lescure-impossible/feed/ 6
Londres oublie ses données personnelles http://owni.fr/2012/06/01/londres-oublie-ses-donnees-personnelles/ http://owni.fr/2012/06/01/londres-oublie-ses-donnees-personnelles/#comments Fri, 01 Jun 2012 11:22:16 +0000 Florian Cornu http://owni.fr/?p=111698

Le 26 mai 2012, le gouvernement britannique devait mettre en application la transposition dans le droit anglais de la législation européenne sur la protection des données. Mais contre toute attente, le parlement a pourtant fait modifier le texte onze heures avant la date limite livrant une version qui devient beaucoup moins contraignante pour les éditeurs de sites web.

Alors que le texte précédent était basé sur de l’opt-in (le site devait obtenir le consentement préalable de l’internaute sur les cookies transitant par sa plateforme avant que les cookies ne puissent recueillir des informations) le texte remanié exige des sites qu’ils fassent des efforts en matière de clarté sur la nature des cookies transitant par leur plateforme. Il implique également que les internautes aient un “niveau de compréhension général” de ce qui est fait de leurs données personnelles lorsqu’ils arrivent sur une page.

Les systèmes existants auront donc simplement à “faire les changements qu’ils estiment être les plus pratiques” pour se mettre à niveau et être transparents sur leur politique en matière de confidentialité des données. Il pourra s’agir d’une icône sur laquelle cliquer, d’un e-mail envoyé, ou d’un service auquel l’internaute pourrait souscrire.

Dure loi des cookies

Dure loi des cookies

En Grande-Bretagne, les sites web affichant des bandeaux publicitaires encourent une amende de 500 000 livres. En France, ...

Le texte insiste par ailleurs sur l’importance de l’information procurée à l’utilisateur. Il indique que ce dernier doit être pleinement informé du fait qu’une simple lecture des informations sur la politique de gestion des cookies par le site peut valoir consentement.

En d’autres termes, un site peut au minimum afficher une note d’information renvoyant vers une explication précise des buts de chaque cookie en activité. Cette note d’information censée être visible agit comme un faire valoir et suppose que l’internaute anglais accepte les conditions du site en matière de vie privée même s’il ne l’a pas lue.

Dans le meilleur des cas, le site demandera explicitement à l’internaute s’il accepte ou refuse les cookies. La loi n’est cependant pas claire sur cet accord potentiel de l’utilisateur. On peine à savoir si le consentement concernera les cookies dans leur intégralité ou si l’utilisateur pourra ou non refuser des cookies selon leurs fonctions.

Si la loi, avant modification, donnait la responsabilité de la gestion des cookies aux sites, la nouvelle version transfère la responsabilité aux internautes à qui il appartiendra désormais de paramétrer leurs navigateurs ou d’utiliser les logiciels nécessaires pour gérer au mieux ces cookies. Problème, les moyens techniques permettant de gérer les cookies en opt-in sont encore peu nombreux et souvent d’une efficacité relative.

En outre, en remplaçant le terme de consentement préalable par le terme de consentement implicite il crée une large faille. L’internaute pourrait “accepter” (lire les informations sur les cookies opérant sur le site qu’il visite) la charte du site en matière de vie privée alors même que certains cookies pourraient déjà avoir été envoyés sur son ordinateur.

Comme le souligne le commissaire à l’information du gouvernement anglais sur le sujet, certains sites envoient des cookis dès que l’internaute accède à la page d’accueil. Dans ce cas, le texte encourage les sites à

prendre des mesures pour réduire au maximum le délai temporel avant lequel l’utilisateur est informé de la nature des cookies présents et de leurs buts.

Par ce revirement soudain, le gouvernement anglais pond un texte probablement plus pragmatique dans sa mise en application mais beaucoup moins performant en matière de protection des données. Non seulement la loi pose comme base le consentement implicite de l’internaute , mais le gouvernement se dédouane par la même occasion de toute responsabilité en matière de moyens techniques de gestion des cookies. À l’utilisateur et aux éditeurs de sites de trouver les moyens de protéger leur données.

Enfin, en raison de l’impossibilité de faire une chasse aux dizaine de milliers de sites de facto considérés comme illégaux, la loi demeure quasi inapplicable…


Cookies par Ssosay [CC-by] via Flickr

]]>
http://owni.fr/2012/06/01/londres-oublie-ses-donnees-personnelles/feed/ 0
La prison déconnectée http://owni.fr/2012/05/01/les-gros-bugs-dinternet-en-prison/ http://owni.fr/2012/05/01/les-gros-bugs-dinternet-en-prison/#comments Tue, 01 May 2012 14:45:33 +0000 Benjamin Leclercq http://owni.fr/?p=108135

Le garde des Sceaux, Robert Badinter, aidé d’une conjoncture sportive opportune, avait fini par convaincre l’Administration pénitentiaire : nous sommes en décembre 1985, et la télévision entrait, enfin, en prison. Les postes sont alors loués et installés à la hâte dans les cellules françaises, révolution carcérale de dernière minute qui devait permettre aux détenus de suivre la coupe du monde 1986 au Mexique. Le détenu français devient alors téléspectateur, suspendu à cette salutaire lucarne, qui, moyennant 65 francs par mois, lui raconte ‘le dehors’.

Fracture numérique

27 ans plus tard, la lucarne semble bien étroite. A l’extérieur, la télévision demeure l’écran le plus regardé, mais la société de l’information a consacré un nouveau roi, Internet. Informatif et récréatif, comme la télévision, mais aussi et surtout interactif, outil pédagogique, professionnel, administratif, pratique, etc., aujourd’hui incontournable. Le Conseil constitutionnel en a même fait un droit. Que les 67.161 détenus français, eux, n’ont pas.

Dans un avis du 20 juin 2011, le Contrôleur général des lieux des privations de libertés (CGLPL), M. Jean-Marie Delarue, a mis les pieds dans le plat, contre cette fracture numérique dont on ne parle pas :

« Pour que chaque établissement assure depuis ces locaux le lien avec les services en ligne (« internet »). (…) L’accès aux services de messagerie électronique doit également être assuré, dans les seules limites actuellement ouvertes par la loi pour les correspondances [lecture et contrôle de tous les messages entrants ou sortants, ndlr] ».

Vecteur de droits

Aux yeux du Contrôleur général, il faut franchir ce pas technologique. Pour Owni, il justifie sa prise de position, et égrène les potentialités et usages de l’outil Internet en milieu carcéral, rappelant que « jamais un juge n’a condamné quelqu’un à être privé d’Internet » :

1/ Un instrument récréatif, bien sur : au même titre que la télévision, face à la triviale nécessité de « passer le temps »

2/ Un moyen d’expression de soi : « aujourd’hui en France, les détenus crèvent de ne pas pouvoir s’exprimer », assène-t-il. A ce titre, « l’accès à Internet est susceptible de faire évoluer considérablement la condition pénitentiaire », car il est vecteur de droits fondamentaux, tel le maintien des liens familiaux, enjeu central d’une détention ;

3/ Un outil de réinsertion : Internet doit pouvoir « compenser l’insuffisance du travail social en détention », et donner au détenu la possibilité de trouver job et logement, les deux piliers de leur réinsertion. Consulter les annonces de Pôle emploi, de logement, accéder aux services publics (santé, RSA, etc.), préparer son code la route, pour anticiper la sortie et responsabiliser « des détenus infantilisés en détention ».

Mais les résistances demeurent fortes au sein de l’Administration pénitentiaire. Et une crispation, évidente, sur la question de la sécurité et du contrôle. Dans sa réponse du 7 juillet 2011 à l’avis du CPLG, le garde des Sceaux, Michel Mercier, tourne autour du pot, appelant à « l’introduction graduelle, maitrisée et contrôlée de certains aspects de la ‘société de l’information’ » en prison, tout en rejetant de fait l’accès à Internet et aux messageries électroniques, arguant d’une administration pénitentiaire qui « n’est pas aujourd’hui en capacité, financièrement et humainement, de mettre en œuvre les mécanismes de contrôle ».

Pour le CGLPL, l’enjeu est supérieur au coût. Rappelons d’ailleurs que le même argument financier avait été invoqué en 1985 contre la télévision par l’Administration pénitentiaire (AP), avant que celle-ci n’intègre finalement le coût de l’investissement aux redevances des détenus, qui ont donc financé le dispositif.

Les Cyber-bases® Justice : la quête d’un Internet inoffensif

Et pourtant, « l’AP » a fait un premier pas. Des expérimentations ont été lancées, résultats d’un partenariat entre le Ministère de la Justice et la Caisse des dépôts et consignations signé en 2007 : les Cyber-bases® Justice. Soit 7 espaces numériques testés en milieu carcéral.

Un dispositif qui demeure particulièrement frileux et restrictif. « Les détenus ont accès à du contenu web, mais ne peuvent pas intervenir dessus : pas de clic droit, pas de moteur de recherche, pas de liens extérieurs cliquables ou de formulaires à remplir », explique Arnaud Bertrande, formateur informatique en prison. L’envoi de mails est lui aussi virtuel: « sur deux ordinateurs, une application simule l’envoi et la réception de courriels, d’un poste à l’autre ». Les vertus des Cyber-bases® Justice sont donc purement pédagogiques : le détenu pourra par exemple visiter le site de Pôle emploi sans toutefois s’y inscrire.

En d’autres termes, une façade d’Internet que les détenus peuvent contempler, mais dont la porte reste désespérément close. « Les participants viennent dans l’idée de surfer sur Internet pour s’évader, ils trouvent donc le dispositif insuffisant », concède Arnaud Bertrande. Reste que ce public « au niveau scolaire assez bas » y trouve autre chose, comme « l’écriture » et « le b.a.ba des logiciels informatiques ».

« Paresse intellectuelle et précaution inutile »

La sécurité justifie pour l’instant l’extrême prudence de l’expérience. Car Internet, c’est aussi le vivier de sites de propagande extrémistes, de manuels de fabrication d’armes artisanales, et un outil de communication avec l’extérieur qui inquiète le personnel pénitentiaire. Le précédent Fofana illustre le type de dérives que craint l’AP : l’ex-chef du « gang des barbares » est suspecté d’avoir posté, depuis sa cellule, une quinzaine de vidéos sur YouTube, fin 2011.

« Bien sûr que ça fait peur », témoigne Corinne Peltier, coordinatrice de la Cyber-base® justice de la maison d’arrêt de Gradignan (Gironde), saisissant l’exemple des forums en ligne, sur lesquels « on retrouve n’importe qui, et n’importe quoi », et où « l’on peut imaginer qu’organiser son évasion est possible ».

La sécurité rythme le travail de cette contractuelle de l’AP, qui pilote une vingtaine d’intervenants à la Cyber-base® (enseignants, formateurs, bénévoles, et intervenants culturels). « Tous les sites sont interdits, je ne fais qu’autoriser », explique-t-elle. Et pour autoriser, la demande remonte jusqu’au ministère, une navette qui prend « environ 6 mois ». Sa persévérance lui aura permis de réunir plusieurs centaines de références, de Wikipédia à la BBC, en passant par leboncoin.fr, Pôle emploi ou les Pages Jaunes. Tout site contenant des plans est en revanche recalé, à l’image de Mappy.com.

Pour Jean-Marie Delarue, la phase expérimentale a assez duré : il faut la généraliser. Les prisons françaises ne peuvent plus se contenter d’un ersatz d’Internet, accessible dans 7 des 200 établissements pénitentiaires. La sécurité est un enjeu clé, convient-il, mais ne peut pas justifier l’inertie de l’Administration pénitentiaire, dont il dénonce « le raisonnement de paresse intellectuelle et de précaution inutile » :

Je crois que l’administration pénitentiaire, les élus politiques, ne se sont pas vraiment posé la question de savoir si l’on pouvait réellement contrôler Internet pour le rendre inoffensif. La sécurité a toujours raison. Et elle se moque des droits fondamentaux.

Un élément non moins inattendu qu’une coupe du monde illustre l’urgence d’une décision sur ce sujet : les consoles de jeux. Tous les modèles de dernières génération (PS3, Xbox360, etc.) sont interdits car disposant d’une connectivité réseau, et les veilles consoles commencent à s’épuiser, faute de pièces de rechange. Autrement dit, la recréation favorite des détenus est en sursis, et les cellules grondent.

L’AP : « Rappelez dans trois mois »

De fait, l’obstacle de la sécurité est franchissable. Le CGLPL préconise d’ailleurs l’usage d’Internet dans des salles prévues à cet effet, sous contrôle d’un surveillant, et en aucun cas en cellule, ainsi que le contrôle des emails entrants et sortants. « D’un point de vue technique, sécuriser Internet pour l’adapter au milieu carcéral serait très simple », argue Mohamad Badra, chercheur au CNRS (Laboratoire LIMOS) et spécialiste de la sécurité d’Internet. La mise en place d’un proxy, intermédiaire filtrant entre le client (le détenu) et le serveur, permet d’exclure les sites prohibés, sur le modèle du contrôle parental. Idem pour les forums.

« Des systèmes de détection de mots interdits sont également très efficaces, qui alertent le contrôleur en cas de saisie ». Et Mohamad Badra de comparer le dispositif à celui d’un café internet :

l’essentiel est de sécuriser la machine, en protéger l’accès administrateur, pour que personne ne puisse modifier paramètres et détourner les proxy.

Jointe par téléphone, la Direction de l’Administration pénitentiaire déclare qu’elle n’est « pas au point sur le sujet », et invite à « rappeler dans trois mois ».

« La pénitentiaire dira toujours non »,
confie, fataliste, Jean-Marie Delarue. « C’est le politique qui doit franchir le pas ». Internet attend son Badinter pour avoir, enfin, droit de cité derrière les barreaux.


Illustrations et photos sous licences Creative Commons par Larskflem, Ti.Mo, Heretakis via Flickr
Références :
Avis du Conseil Constitutionnel sur l’accès à internet
Avis du CGLPL du 20 juin 2011 (PDF)
Réponse du garde des Sceaux au CGLPL (PDF)

]]>
http://owni.fr/2012/05/01/les-gros-bugs-dinternet-en-prison/feed/ 6
Conditions générales de mystification http://owni.fr/2012/04/04/conditions-generales-de-mystification/ http://owni.fr/2012/04/04/conditions-generales-de-mystification/#comments Wed, 04 Apr 2012 06:32:14 +0000 Lionel Maurel (Calimaq), Andréa Fradin et Marion Boucharlat http://owni.fr/?p=104662

Dans les séries américaines, on lit leurs droits avant toute chose aux personnes interpellées par la police. Sur le web, les internautes auraient également besoin qu’on leur “lise leurs droits”, car au fil de notre navigation, nous sommes sans cesse en train d’accepter des conditions contractuelles d’utilisation des services que nous utilisons, qui influent grandement sur notre condition juridique.

Les CGU (Conditions Générales d’Utilisation) ou ToS en anglais (Terms of Service), ce sont ces pages interminables, écrites en petits caractères et dans un jargon juridique difficilement accessible au commun des mortels, que nous acceptons généralement sans les lire en cochant une case. Elles ont pourtant une incidence importante sur nos droits en ligne, notamment sur la protection de nos données personnelles, ainsi que sur la propriété de nos contenus.

Pour nous aider à y voir clair dans cette jungle des CGU, OWNI publie cette semaine une infographie (voir aussi au bas de l’article) analysant les conditions d’utilisation de quatre géants du Web : Google, Facebook, Twitter et Apple. Une image vaut mieux qu’un long discours et c’est particulièrement vrai en matière de CGU, dont l’une des caractéristiques réside dans leur opacité pour les internautes.

CGU : à prendre ou à laisser ?

Les CGU tirent leur force du fait qu’elles ne sont pas négociables par les utilisateurs des services en ligne et qu’une fois acceptées, l’utilisateur se trouve lié à ces règles par sa propre volonté. Mais ce nouveau visage de la servitude volontaire n’est peut-être pas une fatalité. Les internautes semblent en effet de plus en plus prendre conscience de l’importance de ces conditions contractuelles, ainsi que du fait qu’ils peuvent agir collectivement pour obtenir des modifications.

En ce moment même a lieu sur Pinterest, réseau social montant aux États-Unis, une “manifestation virtuelle” qui pourrait déboucher sur des modifications importantes des conditions d’utilisation du site. Plus de 45 000 personnes ont épinglé en signe de protestation sur leur profil une image, avec ces mots : “Dear Pinterest, Please Change your Terms or I’m Leaving“.

Dans la tourmente depuis plusieurs semaines, après avoir subi des accusations à répétition de violation du droit d’auteur, Pinterest a été obligé de prendre très au sérieux le mécontentement populaire de ses usagers. La plateforme a modifié ses CGU de manière à adopter une attitude moins appropriative, notamment en renonçant à la possibilité de revendre les contenus de ses usagers à des tiers.

De telles actions collectives ont déjà été couronnées de succès dans le passé. En 2009, lorsque Facebook avait modifié ses CGU afin de s’accorder tous les droits, pour toujours sur les contenus personnels de ses usagers, une bronca s’était déclenchée qui avait fait reculer le géant des médias sociaux, alors en plein essor. L’épisode s’était terminé par la publication d’une charte des droits et responsabilités, aboutissant à un rapport plus équilibré entre la plateforme et ses utilisateurs, même si Facebook a depuis défrayé la chronique à plusieurs reprises par ses changements de CGU.

Le même phénomène s’était produit lors de la Nymwar en 2011. Après avoir bataillé férocement pour imposer aux utilisateurs de Google + de révéler leur véritable identité, la firme de Mountain View a fini par céder devant la pression pour accepter les pseudonymes.

Nul n’est censé ignorer la loi (même les CGU…)

Néanmoins, ces mobilisations des internautes ne sont pas toujours suffisantes pour obtenir de meilleurs équilibres dans les CGU des services et l’infographie d’OWNI montre bien la condition plus que précaire de nos droits, face à des géants comme Twitter, Facebook, Apple ou Google.

La question se pose alors de savoir dans quelle mesure les États, par le biais de leurs lois, sont capables de protéger les citoyens contre les dérives les plus inquiétantes des médias sociaux, notamment en termes d’exploitation des données personnelles.  Même si les dérives des médias sociaux se succèdent à un rythme inquiétant, l’actualité récente a montré que les États ne sont pas complètement démunis pour faire pression sur les grandes firmes du web.

Outre-Atlantique, la puissante Federal Trade Commission est ainsi parvenue en novembre 2011 à imposer, par le biais d’un accord amiable avec Facebook, une mise sous surveillance pendant 20 ans du réseau social, qui devra se plier régulièrement à des audits indépendants concernant l’utilisation des données personnelles. Plus important encore du point de vue des CGU, Facebook s’est engagé à obtenir le consentement explicite des utilisateurs lors du changement de ses conditions d’utilisation, et notamment de ses réglages de confidentialité.

En effet, comme le montre bien l’infographie, les CGU ne sont pas seulement complexes  ; elles sont aussi mouvantes et connaissent des changements réguliers, que les utilisateurs sont réputés accepter implicitement, après s’être inscrits une fois sur un service. Ce type de clauses peuvent s’avérer particulièrement dangereuses et “déloyales”. C’est par ce biais que Twitter par exemple a pu se présenter pendant trois ans comme une plateforme respectueuse des droits de ses utilisateurs, avant de changer brutalement ses CGU en 2009 pour obtenir rétroactivement des droits très étendus sur les contenus de ses utilisateurs. Cette clause est restée longtemps “dormante”,  jusqu’à ce que Twitter revende le mois dernier deux ans d’archives à des sociétés anglaises de data mining. L’évolution des CGU ressemble parfois à une partie d’échecs, où les attaques se construisent plusieurs coups en avance…

Du côté des données personnelles, une nouvelle directive est actuellement en préparation pour remplacer l’actuel texte en vigueur qui remonte à 1995. Si elle est à l’origine d’un régime reconnu comme l’un des plus protecteurs au monde, cette directive commence à atteindre ses limites, confrontée à de nouveaux défis comme le cloud computing ou à des pratiques de croisement de données sans précédent, comme celle que Google vient de s’octroyer la possibilité de mettre en oeuvre en unifiant les conditions d’utilisation de ses différents services.

D’autres CGU sont-elles possibles ?

Pour agir en amont afin de garantir la protection des données personnelles, on évoque de plus en plus comme solution le Privacy by Design, c’est-à-dire la prise en compte de la vie privée dès la conception, qui pourrait être consacré par la future directive européenne.

Mais ce “Privacy by Design” peut aussi résulter des CGU d’un service, qui agissent alors comme une sorte de “code génétique” modelant son fonctionnement dans le sens du respect des droits des utilisateurs. C’est le cas par exemple du réseau social alternatif Diaspora, dont le Bill of Rights est axé sur le respect d’un certain nombre de principes d’honnêteté, de transparence, de prédictibilité, de maîtrise, plaçant le respect des droits individuels au cœur de la plateforme.

Cet exemple montre comme le souligne l’infographie que d’autres CGU sont possibles, que ce soit en termes d’intelligibilité ou d’équilibre des droits.

Certaines plateformes par exemple utilisent les licences libres pour garantir que les contenus produits par les utilisateurs, s’ils peuvent être réutilisés, ne pourront pas faire l’objet d’une appropriation exclusive. C’est le cas par exemple du réseau de microblogging alternatif identi.ca, placé sous licence Creative Commons BY ou bien entendu, de l’encyclopédie collaborative Wikipédia, où la licence CC-BY-SA tient lieu de CGU pour la partie propriété des contenus. Personne n’étant en définitive propriétaire du contenu global de Wikipédia, cette forme de non-propriété protège les contributeurs contre les risques de revente qui ont pu survenir pour d’autres plateformes contributives, même si tout risque de dérive n’est pas absolument écarté comme l’a montré récemment le partenariat entre Orange et Wikipédia.

Le réseau Tumblr s’est récemment distingué de son côté par l’effort qu’il a consacré pour traduire en termes intelligibles ses CGU, en s’écartant du jargon juridique habituel et allant même jusqu’à recourir à l’humour. Les clauses relatives à la propriété des contenus par exemple sont ainsi clairement compréhensibles et remarquablement équilibrées :

When you upload your creations to Tumblr, you grant us a license to make that content available in the ways you’d expect from using our services (for example, via your blog, RSS, the Tumblr Dashboard, etc.). We never want to do anything with your content that surprises you.

Something else worth noting: Countless Tumblr blogs have gone on to spawn books, films, albums, brands, and more. We’re thrilled to offer our support as a platform for our creators, and we’d never claim to be entitled to royalties or reimbursement for the success of what you’ve created. It’s your work, and we’re proud to be a part (however small) of what you accomplish.

(Quand vous mettez vos créations sur Tumblr, vous nous accordez une licence permettant de rendre votre contenu disponible conformément à ce que vous pourriez attendre en utilisant nos services (par exemple, via votre blog, le flux RSS ou sur le Tumblr Dashboard, etc.). Nous ne voulons jamais faire avec votre contenu quoique ce soit qui pourrait vous surprendre.
Autre élément notable : de nombreux Tumblr ont donné suite à des livres, des films, des albums, des marques, et plus encore. Nous sommes ravis d’apporter notre soutien en tant que plate-forme pour nos créateurs et nous ne réclameront jamais de droit à des royalties ou à un remboursement pour le succès remporté par ce que vous avez créé. C’est votre travail, et nous sommes fiers d’avoir contribué (aussi modestement soit-il) à ce que vous avez accompli.)

On est ici très loin, comme le montre l’infographie, des méandres tortueuses des 47 pages de CGU des services d’Apple ou du double langage employé dans les CGU de Twitter. Ce type de démarche indique même peut-être une voie intéressante pour régénérer l’approche des CGU. De la même manière que les licences Creative Commons ont modifié l’approche du droit d’auteur en traduisant les contrats en termes compréhensibles par les humains (“human readable”), on pourrait imaginer un effort similaire pour transcrire les CGU en des principes plus courts et plus clairs.

Outre un travail sur le langage, cette démarche pourrait également comporter une dimension graphique, recourant comme les Creative Commons  à des logos pour exprimer de manière lisible en un coup d’oeil les conditions d’utilisation.

La fondation Mozilla avait ainsi proposé des “Privacy Icones” qui auraient permis de faire apparaître clairement aux yeux des internautes la politique de confidentialité des sites Internet. Cette approche graphique, qui reviendrait à créer des “Creative Commons de la présence numérique“, pourrait en effet s’avérer beaucoup plus efficace que les chartes ou déclaration des droits que l’on trouve sur certains sites.

La question de l’hybride juste, enjeu des CGU

Au final, l’infographie d’OWNI montre que nous sommes encore très loin de l’émergence d’hybrides justes, selon la formule employée par le juriste Lawrence Lessig. Par le terme “hybride”, Lessig désigne le fait que les médias sociaux se sont développés à cheval entre une économie marchande classique et une économie de la contribution, qui fait que leurs contenus leur sont généralement fournis volontairement et gratuitement par leurs utilisateurs (User Generated Content). L’enjeu des CGU est de parvenir à créer un rapport juste et équilibré entre les droits que la plateforme doit se faire céder pour fonctionner et développer un modèle économique, et les droits que les individus doivent garder pour préserver leurs intérêts fondamentaux.

La quête de “l’hybride juste” est sans doute l’un des défis majeurs pour l’évolution du web, auquel il n’existe actuellement aucune solution entièrement satisfaisante. Toutes les pistes sont bonnes à explorer pour arriver à ce résultat et pourquoi ne pas aller faire un tour pour finir sur des sites sites qui ont mis en place des sorte d’anti-CGU, burlesques chez Oyoyo ou poétiques chez Babelio ?

Et sur 4chan, il n’y a pas de CGU, mais des Rules (“règles”), comme au Fight Club !


Texte : Lionel Maurel (Calimaq)
Infographie : Andréa Fradin et Marion Boucharlat
Design : couverture, illustrations et infographie réalisées par Marion Boucharlat pour Owni /-)

]]>
http://owni.fr/2012/04/04/conditions-generales-de-mystification/feed/ 79
Hacker qui bat http://owni.fr/2012/02/06/mitch-altman-hacker-qui-bat/ http://owni.fr/2012/02/06/mitch-altman-hacker-qui-bat/#comments Mon, 06 Feb 2012 10:07:01 +0000 Sabine Blanc http://owni.fr/?p=96851 hackerspaces, Mitch Altman incarne comme personne la Freeculture. ]]>

Mitch Altman au Chaos Communication Camp, Berlin, Août 2011

Quand il était petit, Mitch Altman ne s’aimait pas. Trop geek introverti, trop moche, trop queer. Aujourd’hui, la première chose qui frappe, c’est la sérénité qui se dégage de l’homme. Mitch est désormais une figure respectée du milieu hacker, ces bidouilleurs qui font un usage créatif des technologies. En accord avec lui-même, sûr de sa voie, qu’il trace en voyageant, en partageant infatigablement. Il était cette semaine à Rennes à Jardin numérique, où son improbable coiffure, mélange de Léo Ferré et de Nina Hagen, n’a pas effrayé les enfants qui ont participé à ses ateliers de soudure.

Dépression au-dessus du berceau

Avant d’afficher son beau visage confiant, Mitch Altman est passé par une longue période difficile. Chez les hackers, le partage est une notion centrale, alors aujourd’hui encore, Mitch parle de cette douloureuse expérience. Pas par narcissisme morbide . Suite au suicide de son ami Ilya Zhitomirskiy, un des fondateurs du réseau social libre Diaspora, il a lancé un appel. White hat, grey hat, black hat et blue hackers :

J’ai vécu la première partie de ma vie dans une profonde et totale dépression. Pas de joie, juste de la honte, de la haine de moi-même, de l’angoisse, de l’anxiété et de la peur des autres gens – une dépression profonde. Je sais ce que c’est qu’être dépressif. Je sais ce que c’est que de vivre en sachant et en croyant que le mieux que la vie puisse m’offrir, c’est la capacité de subir la douleur jusqu’à ce que je meure.  C’était la meilleure possibilité. Comme Ilya, je l’ai caché au monde du mieux que j’ai pu. Et la plupart des gens n’avaient aucune idée que j’étais dépressif.

“Beaucoup le connaissent comme le gourou de la soudure, mais il est aussi chaleureux et de façon tardive un porte-parole pour les gens qui se battent avec leur mal de vivre. La scène hacker est assez macho”, résume Koen Martens, hacker néerlandais qui a partagé avec Mitch une homosexualité difficile à vivre au début.

La solution à son mal de vivre, Mitch a mis des années à la trouver : vivre une vie qu’il aimait et donc vivre de ce qu’il aime, conformément à l’éthique hacker décrite par Pekka Himanen. Et celle passé par des choix, quitte à se tromper, encore un précepte fort chez les hackers : apprendre de ses erreurs. Son premier grand choix sera… d’éteindre la télévision à dix-neuf ans.

Je me suis rendue compte qu’en fait je ne l’aimais pas ! Et pourtant je la regardais des heures et des heures chaque jour. Alors je l’ai quitté. Subitement la vie est devenue différente. J’ai passé beaucoup d’heures plus déprimé. Mais aussi à la contempler. Ce fut vraiment difficile à gérer à l’époque, tous ces sentiments qui surgissaient, mais c’est ce qui se passe quand on renonce à une addiction.

La télé pourrit la vie, et il aimerait aider ses concitoyens à s’en débarrasser. Ce sera la TV-B-Gone, télécommande universelle avec un seul bouton, pour éteindre la machine infernale, créé en 2004. Des journalistes de Gizmodo l’utiliseront sans limite lors du Consumer electronic show (CES), ode annuelle à l’électronique où les écrans sont légion. La plaisanterie leur vaudra d’en être bannis. Aujourd’hui, cet outil à hacker les médias permet encore à Mitch de vivre. Et ne croyez pas qu’il a remplacé cette addiction pour une autre, l’Internet : il préfère s’en tenir éloigné dans la mesure du possible et se concentrer sur ce qui a fait sa réputation, le hack du hardware, c’est-à-dire des objets physiques.

“Je n’ai pas peur de me regarder en entier”

En pleine thèse d’électronique , nouveau sursaut, l’école l’ennuie. Il part voyager autour du monde et rencontrer des gens dont il se sent proche. Il finira par atterrir en Alaska, où il se réconciliera avec la joie de vivre. Après avoir annoncé à sa chef qu’il démissionne de son gagne-pain dans une usine d’assemblage de matériels de pêche.

Dans son cocktail gagnant, il faut ajouter des amis qui l’acceptent tel qu’il est – de vrais amis quoi-, une poignée d’antidépresseurs et une bonne dose de yoga, un point commun qu’il partage avec son compatriote John Gilmore, co-fondateur de l’Electronic frontier foundation (EFF), première association de défense des libertés numériques, créée en 1990 :

Je médite depuis que j’ai treize ans. Au début, je le faisais pour les mauvaises raisons. Je le faisais pour essayer et me “réparer” et bien sûr cela a fini par faire des noeuds dans mon pauvre esprit de treize ans. Maintenant, j’accepte tous les aspects de ma personne, même celles qui craignent. Je n’ai pas peur de me regarder en entier.

Réalité virtuelle dans la Silicon Valley

Après le grand froid, il repart aux États-Unis et s’installe à San Francisco, où il vit encore aujourd’hui. Hasard des connexions, il rencontre quelqu’un qui travaille dans ce qu’il appelle la “Silly valley” et fonde avec lui une start-up dans la réalité virtuelle, pionnier sans le savoir dans ce domaine en pleine expansion aujourd’hui. L’expérience est aussi fatigante qu’heureuse, à travailler avec des gens qu’ils aiment, dans une ambiance pleine de créativité, encore une notion clé de notre hacker.

Il finira par démissionner pour des questions éthiques : les militaires commencent à s’intéresser à la réalité virtuelle pour concevoir des simulateurs. Il apprend alors les joies lucratives du conseil, qui lui permet de travailler un peu et de faire ce qui lui plait le reste du temps. Mais ce mode de vie finit par lui laisser un sentiment d’insatisfaction.

Pas plus satisfaisante sera son aventure dans la société qu’il co-fonde en 1997, 3ware, toujours dans l’électronique. “Le pire boulot de ma vie”. Quand la boîte est revendue, pour 150 millions de dollars, il empoche 60 000 dollars et achète de quoi fabriquer 20 000 TV-B-Gone.

Bre Pettis, hacker connu pour avoir créé l

Je voulais plus qu’une vie OK, je voulais une vie que j’aime à fond (I wanted a life I totally fucking love), même si cela signifiait ne pas gagner d’argent du tout, afin d’avoir le temps découvrir les choses que j’aime vraiment. C’est ce qui finalement m’a conduit à fabriquer, produire et vendre TV-B-Gone. Ce qui a été le début d’une nouvelle étape de ma vie.”

Il crée donc une nouvelle société, Cornfield Electronics, qui sera la bonne.
L’intégrité qui l’a poussé à démissionner ne l’a pas quittée, alors que certains mettent de l’eau dans leur vin, pour des raisons variées, où la gloire et/ou l’argent ont leur part : Mudge, star du hackerspace L0pht rejoignant Darpa, l’agence de recherche et développement du département américain de la Défense, pour prévenir des WikiLeaks bis, grandes entreprises faisant leur marché lors de DefCon, un des grands raouts annuels de hackers.

Si les gens font d’abord cela pour de l’argent, ce n’est pas un choix très sage de leur part. Je ne m’autoriserais pas à dire à qui que ce soit ce qu’il doit faire ou pas. Mais j’aime encourager les gens à réfléchir à leurs motivations et à ce qu’ils aimeraient faire et le faire vraiment.

Récemment, il a écrit à Make magazine, le magazine de la communauté des makers (bricoleurs), avec qui il collabore de longue date :

je leur ai dit que je ne pourrais pas continuer de collaborer avec eux à Maker Faire car ils ont accepté une bourse de la Darpa. C’est une organisation fantastique qui a fait des choses géniales pour moi et plein d’autres gens, et continuera de le faire, mais je trouve extrêmement fâcheux qu’ils acceptent de l’argent de la Darpa. Ils n’ont pas besoin de cet argent. Ils en ont assez de la part de gens qui ont des motivations très fortes pour les aider.

Soudure avec les enfants

Sa société lui laisse donc le temps de voyager beaucoup, au point qu’il a conçu un passeport hacker, qu’il a tamponné abondamment. À Rennes, aux côtés de John Lejeune de Hackable devices, les pionniers français de l’open hardware, il a transmis son savoir. “Hey Mitch can you help me la patte ?” (à lire avec un accent à trancher au couteau), interroge Emmanuel, un jeune homme membre de l’association d’éducation populaire scientifique Les petits débrouillards. “Le patte say la plus long positive… “ (accent tout aussi épais). Mais ce n’était pas un problème de polarité mais de patte mal logée dans le circuit. Mitch lui refile son astuce : il ne suffit pas de chauffer la patte en la poussant, il faut aussi rajouter du fil d’étain pour que la chaleur soit conduite plus vite.

Quand il n’est pas en déplacement, soit une petite moitié de l’année, il partage aussi son savoir-faire en électronique à Noisebridge, le hackerspace de San Francisco qu’il a co-fondé en 2008 avec Jacob Appelbaum, figure du logiciel libre et un des artisans du projet TOR, qui vise à naviguer de façon sécurisée et confidentielle sur Internet.

À Noisebridge, on y soude tous en rond.

L’utopie au pouvoir

Mitch est super cool, Mitch n’a pas d’ennemis, Mitch vit de ce qu’il aime mais Mitch peut aussi passer pour un geek utopique petit blanc. Il pense sincèrement que tout le monde peut atteindre cet équilibre, en injectant une dose de décroissance qui n’aurait pas déplu à Aristote et ses besoins non utiles et non nécessaires. Sans tomber dans le discours Bisounours :

Malheureusement, tout le monde n’a pas tant d’opportunités disponibles, c’est même plutôt le contraire, avec les guerres, les dictatures, les gens pauvres, l’absence de structures… Afin d’avoir une vie que vous aimez, il faut adopter un mode de vie basique, avec les besoins nécessaires de tout animal sur Terre (abri, nourriture). Tout le monde n’a pas ces choses basiques. Par nature, nous sommes des animaux sociaux. Nous avons besoin les uns des autres non seulement pour survivre mais pour nous développer. Pour aimer quelque chose, nous avons besoin d’amis, nous avons besoin des gens que nous aimons.

Et bien sûr, les hackers ont un rôle à jouer, éminemment politique au sens noble. Fidèle à la doocracy des hackers, faire plutôt que dire, il s’est ainsi rendu en Egypte cet automne à l’occasion de Maker Faire Africa, lançant un appel au développement des hackerspaces en Afrique. La valise pleine de fers à souder bien sûr, qui ont chauffé sec. Et rebelote en avril, direction la Chine. Il n’est pas inquiet que l’État soit derrière certaines initiatives : “j’espère que le gouvernement chinois se hackera lui-même.”


Vous pourrez rencontrer Mitch Altman à Paris la semaine prochaine :

- le mardi 7 février : atelier Arduino pour les débutants, organisé par Fabelier au CRI de 19 heures à 22 heures.

- le mercredi 8 février : projection-débat sur l’artivisme et le médiactivisme, organisée par l’association des citoyens cyber-journaliste à la Maison des Associations du 14ème arrondissement


Photos par Bre Pettis/Flickr (nc by) et maltman23/Flickr (by sa)
Portraits de Mitch Altman par Ophelia Noor pour Owni et Alexander Klink/WikimediaCommons (CC-by)

]]>
http://owni.fr/2012/02/06/mitch-altman-hacker-qui-bat/feed/ 27