Attiré(e) par les défis techniques, vous êtes curieux(se), pragmatique, sociable, autonome et sensible aux questions d’architectures ouvertes et open source, vous êtes attaché(e) à réaliser des applications de qualité orientées mobile sur base HTML 5 et Javascript. (suite…)
Catégorie : Technique
-
Recrutement : Développeur / développeuse PHP Magento
Attiré(e) par les défis techniques, vous êtes curieux(se), pragmatique, sociable, autonome et sensible aux questions d’architectures ouvertes et open source, vous êtes attaché(e) à réaliser des applications de qualité sur base Magento. (suite…)
-
Recrutement : Intégrateur / intégratrice web de talent
Attiré(e) par les défis techniques, vous êtes curieux(se), pragmatique, sociable, autonome et sensible aux questions d’architectures ouvertes et open source, vous êtes attaché(e) à réaliser des interfaces web de qualité.
-
De la multiplication des antennes pour téléphone mobile
Commençons par ce qui fait débat : Je n’ai pas d’élément permettant d’affirmer ou d’infirmer l’impact sur la santé de la proximité des antennes relais. Mieux, si ces craintes me semblent crédibles je ne veux pas céder à un « principe de précaution » exagérément large.
Par contre, sauf à vouloir interdire tout réseau sans fil de taille conséquente, je me désole à chaque fois que j’entends un groupe qui fait échec à une antenne.
Multiplier les antennes
Si je me place uniquement du point de vue de l’intensité des ondes et de leur risque pour la santé, la meilleure chose à faire c’est au contraire de multiplier les antennes.
L’exercice est très simple : Prenez une feuille quadrillée et tracez y la forme géométrique de votre choix en suivant les lignes. Cette forme représente votre territoire. Personnellement je jouerai avec un carré de 20×20, parce que c’est plus simple à retranscrire ici.
Nous allons y placer des antennes et indiquer dans chaque case la force des ondes qui la traverse. Arbitrairement nous fixerons que la réception décroit de 1 par case, et que en dessous de 4 j’ai une zone blanche, avec une réception trop mauvaise pour être acceptable.
Pour commencer placer une antenne, où vous voulez, de la force que vous voulez, de façon à couvrir tout votre territoire. Dans ma grille mon antenne doit avoir une force de 24 pour tout couvrir ; les forces moyennes et médianes sont de 14, ce qui est assez élevé ; et seul 15% de mon territoire a une force inférieure à 10.
Tentez maintenant le même exercice avec quatre antennes. Mes antennes ont désormais une puissance maximale de 14, c’était la moyenne précédente ; cette médiane est désormais en dessous de 10 et c’est donc 50% de mon territoire qui a une puissance raisonnable.
Si on avance encore à 16 antennes ma puissance maximale est de 8 et la moyenne descend à 6. Plus on avance et plus la force de tout mon territoire tendra à être homogène et se rapprochera du seuil de couverture avec une puissance de 4. C’est un aperçu de ce que donnerait un territoire où chacun aurait sa propre antenne personnelle.
Loi en carré inverse
Notre première simulation est très optimiste par certains aspects parce qu’en réalité l’intensité évolue en carré inverse de la distance. Ça veut dire que quand on multiplie par deux la distance à l’antenne, l’intensité du rayonnement est divisée par quatre.
Je vous propose de refaire nos exercices précédents avec cette règle. Vous allez voire qu’on se retrouve vite avec des chiffres fantastiques dès qu’on est obligés de placer une antenne un peu loin. Dans ces conditions placer une seule antenne ou même seulement quatre devient quasi suicidaire si on croit à la nocivité des ondes.
La moindre antenne en moins c’est une puissance décuplée sur toutes les antennes à côté. Sauf à croire que vous serez toujours en extrémité des couverture, vous avez même potentiellement intérêt à avoir une nouvelle antenne relai chez vous plutôt qu’une super antenne légèrement plus loin.
Autant vous dire qu’avec ces règles, une femtocell chez vous a une intensité totalement insignifiante par rapport aux antennes relais globales, parce qu’elle a une portée qui se limite à quelques mètres. Par contre le moindre espoir d’utiliser moins l’antenne générale implique un gain qui fait passer l’intensité de la femtocell pour un verre d’eau dans l’océan.
Du téléphone portable
Amusons-nous encore plus. Justement à cause de cette relation entre l’intensité du rayonnement et la distance, le signal de votre téléphone portable en communication contre votre oreille est bien plus problématique que tout ce que vous recevez de l’antenne relai.
Cela veut bêtement dire qu’encore une fois, tant qu’elle n’est pas dans votre baignoire, ajouter une antenne relai proche de chez vous tend plutôt à faire baisser les risques liés aux ondes. Votre téléphone aura besoin d’émettre bien moins fort pour rejoindre cette antenne, et c’est surtout ça qui importe pour les risques sanitaires.
Plus pragmatique, utiliser un kit main-libre filaire, avec le téléphone accroché à votre ceinture relié à un écouteur-micro, vous épargnera bien plus que toute réflexion sur le positionnement des antennes relai.
En s’approchant de la réalité
Certes, la réalité est plus complexe. Il faut jouer sur les fréquences pour que les signaux ne se recouvrent pas, composer avec le rayonnement des antennes qui est sous forme d’oreilles de Mickey voire directionnel et pas forcément uniforme. C’est un travail difficile qui explique que la couverture puisse sembler aléatoire ou imparfaite à certains endroits.
Certes aussi, chacun préfère les voir chez son voisin proche que sur son propre toit. Cependant, dans tous les cas, multiplier les antennes permet d’en diminuer les puissances et globalement d’assurer une meilleure couverture pour moins de pression électromagnétique.
Nos opérateurs ont trop voulu économiser sur les coûts et garder un réseau finalement assez faible en antennes. Les voilà pris à leur propre jeu désormais quand les associations locales veulent faire tomber les antennes ou bloquent les nouveaux projets : Non seulement on arrive à saturation mais pour couvrir tout le monde on s’oblige à utiliser des intensités qui renforcent les anti-ondes.
De la dangerosité de tout cela
Rien ici n’affirme que ce niveau d’onde est dangereux, ou au contraire insensible. Je peux comprendre qu’on refuse d’avoir des antennes dans les crèches, ou au dessus des endroits les plus fragiles. Par contre, partout ailleurs, pitié, encouragez plutôt les antennes, ou alors soyez cohérents et militez pour l’extinction totale des ondes radio.
Entre temps, imposer donner de la publicité aux puissances émises par les téléphones portables et militer pour les kits main-libre filaires a bien plus d’impact. C’est justement ce qu’a imposé notre gouvernement et je ne peux que m’en féliciter.
De ce qu’il est possible de faire
Un seuil à 6 voire 0,6 V/m pour la puissance des antennes est tout à fait envisageable – et c’est d’ailleurs fait dans d’autres régions en Europe – à condition de densifier le réseau. Cela impose de réels investissements aux opérateurs mais ils s’y retrouveront en ayant un réseau qui supportera bien plus de trafic. Ils affirment que la saturation du réseau actuel est leur problème majeur, donnons leur des armes pour le résoudre.
Cela impose aussi une compréhension des anti-ondes pour bloquer les antennes de forte puissance mais aussi pour faciliter l’implantation de celles à faible puissance. Cela implique de passer d’un débat passionnel qui rassemble facilement les foules à un débat technique auquel personne ne pige rien. Difficile, surtout que certains risques de perdre la face quand on se rendra compte qu’ils ont milité à l’inverse de leurs intérêts.
Tout cela demande un cadre réglementaire audacieux et volonté politique forte. Autant dire que je ne retiens pas mon souffle. Entre temps on a un joli jeu perdant-perdant, avec des puissances de 8 à 80 fois celles que je viens de citer.
-
Des résultats d’élection en Open Data
« Le Sénat adhère à l’Open Data » vois-je dans mes fils d’information.
Le Sénat a décidé de publier les résultats des futures élections sénatoriales en temps réel, sous un format ouvert documenté, à tous, sur son site Internet. Je ne peux que m’en féliciter et si je retiens un « il était temps » c’est pour éviter d’y mêler le négatif d’une frustration. Le pas était nécessaire, utile, et bienvenu.
Merci de l’effort, il est apprécié à sa juste valeur
J’ajouterai même que je suis agréablement surpris par la volonté de publier ces résultats en temps réel, actualisés toutes les cinq minutes. Là on sort du besoin pour proposer de l’innovation ou en tous cas de la valeur ajoutée.
Mieux encore, ils ont réussi à convaincre la bureaucratie pour accepter les réutilisations non-commerciales comme les réutilisations commerciales, alors que ces dernières sont très souvent exclues ou payantes. Ils ont aussi réussi l’exploit d’autoriser les traitements, manipulations, extractions, création de données dérivées et même la diffusion de ces dernières. Si ça vous paraît évident et indispensable, sachez que nous en sommes rarement là habituellement.
Un risque sur le long terme
Maintenant, pour revenir à mon pessimiste habituel, notre administration n’oublie pas ses travers et j’ai peur qu’à force de vouloir jouer les compromis, le pas qui a été fait ne puisse se révéler négatif sur le long terme.
Il faut rentrer dans la licence d’utilisation des contenus pour voir le problème.
Une clause de publicité
Tout d’abord on récupère la clause tant honnie des premières licences BSD : Il faut mentionner explicitement la source et la date de mise à jour des données. Certes, c’est une bonne pratique, mais c’est aussi vite contraignant là où ce n’est pas pertinent.
La licence me propose un paragraphe qui tient en trois lignes. Si je croise quatre ou cinq données avec une licence similaire dans mon tableau, il faut que je commence à réserver une demie page uniquement pour ces mentions. Rien de grave mais ça commence à agacer.
« Application, Produit ou Service intégrant les données électorales issues du dernier renouvellement sénatorial et publiées sur le site du Sénat (www.senat.fr). Dernière mise à jour le 25 septembre 2011 ».
Pour un contenu original, une création artistique ou d’opinion, l’attribution a un sens et un rôle particulier, mais pour des données objectives propres à notre institution publique, quel est le sens de cette attribution ? son rôle ?
C’est d’autant plus gênant que la licence est explicitement transmissible. Elle doit s’appliquer à toute base de données dérivée et pas qu’aux données sources. Si en soi ce « copyleft » est légitime, il prend toute son importance quand on mélange plusieurs données.
En effet, cette simple clause de publicité casse déjà la compatibilité avec toutes les licences dites « libres ». Ces dernières empêchent d’ajouter des restrictions à l’usage ou la distribution. Des données publiques qui ne peuvent être réutilisées mixer à des contenus ou logiciels libres, c’est juste dommage.
Une clause floue de terminaison
Ce qui me rend très pessimiste ce sont les clauses 7 et 8. Elles contiennent des exclusions bienvenues sur la capacité du Sénat à changer son format, arrêter ou modifier ses publications futures, mais elles contiennent aussi la capacité de modifier les conditions de la présente licence.
La formulation ne permet pas de savoir si le Sénat se réserve le droit de publier les données dans une licence différente dans le futur, sans impacter les droits déjà données (ce qui ne pose aucun problème) ou s’il se permet de modifier les conditions de la licence actuelle, et donc potentiellement terminer les utilisations actuelles ou d’en modifier les conditions.
Nombre de licences ont une telle clause de terminaison, permettant au détenteur des droits de finalement revenir sur la licence gratuite offerte jusqu’alors, ou d’en changer les termes. Ce serait pour moi l’écueil principal de cette licence.
Peut-être ai-je mal interprété ces clauses 7 et 8, mais dans ce cas une reformulation pour lever l’ambiguïté me semble indispensable.
Une licence est-elle indispensable ?
Et finalement, c’est tout le principe de licence de réutilisation qui me semble contestable ici. On m’a répondu que bien entendu sans licence le droit s’applique et personne n’a aucun droit sur les contenus. Je me permets d’être en désaccord.
En France les documents administratifs de l’État, des collectivités territoriales, des services publics, et des établissements publics sont publics de par la loi. Tous les citoyens doivent y avoir accès et nous avons même créé une commission spécifique pour garantir cet accès, la CADA. Il est je pense évident à tous que des résultats d’élection ne peuvent de toutes façons être que publics et publiables dans une démocratie correcte.
De quel droit ?
C’est d’autant plus vrai ici qu’il n’y a aucune création originale ni aucun travail intellectuel spécifique. Il s’agit de reprendre des données objectives et brutes dont même la collecté n’a rien d’une intention intellectuelle particulière. Je ne vois aucun droit d’auteur permettant d’établir une licence particulière. Cela pourrait se discuter pour des statistiques de l’INSEE où il y a un choix de recoupement, un travail spécifique de collecte et d’analyse, mais pas ici.
Reste le droit des bases de données, l’interdiction à un tiers de récupérer de façon automatisée ou d’extraire une portion significative des contenus d’une base de données. Du fait de la publicité obligatoire des données, il me semble difficile de jouer sur ce point. Dans tous les cas cela ne s’appliquerait qu’à ceux qui collectent un ensemble de données et pas les résultats d’une élection particulière.
Est-ce même conciliable avec une démocratie ?
Finalement, quel est le droit de l’état d’imposer une licence pour l’utilisation des résultats d’élection ? Est-ce vraiment souhaitable pour ce type de données dans une démocratie ? Si vraiment il fallait une licence, une WTFPL aurait été plus adapté à ce cas.
Quand on commence à définir qui a le droit et sous quelles conditions d’utiliser, manipuler ou publier les résultats d’une élection, on commence à toucher les limites de ce qui est acceptable en démocratie.
Oui, j’emploie des grands mots dans des grandes phrases mais sinon, à force de toucher au principes de base, on finit par les oublier.
-
Où doit-on mesurer la capacité réseau
Nos FAI tiennent comme à la prunelle de leurs yeux à leur obligation de moyen, par opposition à une obligation de résultat. Cette obligation de moyen a du sens quand on parle de questions techniques où les responsabilités sont multiples et où rien n’est tout blanc ou tout noir.
Toutefois, pour qu’une telle obligation de moyen fonctionne, il faut être capable de l’évaluer. À défaut on continuera à avaler des publicités pour du 24 ou du 100 Mb/s alors que la connectivité vers Youtube et les autres fournisseurs de contenu est trop mauvaise pour arriver à quoi que ce soit sur 5 Mb/s.
Le FAI ne contrôle pas tout l’Internet
Stéphane Bortzmeyer pose les bonnes questions. Mesurer le débit réel vers l’extérieur est difficile. « Le FAI ne contrôle pas tout l’Internet » et ne peut garantir une bande passante de bout en bout.
Je me permets de tout de même d’arrêter là l’exonération de responsabilité. Le FAI ne contrôle pas les débits une fois sorti de son réseau, mais il contrôle tout à fait à quel nœud ou quel opérateur de transit il fait transiter ses données. Charge à lui d’utiliser un nœud ou un opérateur efficace. Parfois le FAI n’a réellement aucun contrôle, mais parfois ça peut ne tenir qu’à changer de route.
Mais il n’est pas impuissant non plus
Si ça ne suffit pas, l’obligation de moyen c’est aussi de mettre en œuvre un peering raisonnable et bien dimensionné avec les gros fournisseurs de contenus, ou une connectivité plus directe. Parce que finalement je le paye bien pour ça mon FAI.
Il est un peu trop facile de se décharger « ce n’est plus ma responsabilité une fois sorti du réseau ». Si effectivement le FAI ne peut contrôler toutes les routes, la connectivité vers les réseaux principaux, vers les peerings, vers les fournisseurs de contenus majeurs, ne lui est pas étrangère.
Faire quelques mesures
Plus exactement si ça rame vers Youtube, Gmail, Dailymotion, Megaupload, Facebook, Flickr, TF1 ou je ne sais quel service majeur, votre FAI en est très souvent responsable. Si ça rame ailleurs chez votre FAI mais pas celui d’à côté, même sanction. Entendons nous bien, il ne s’agit pas de dire que le FAI est responsable d’un choix du fournisseur de contenu, mais il est responsable de ne pas faire remonter le problème, de ne pas utiliser ou faire utiliser des routes alternatives, de ne pas mettre en place un peering ou une connectivité directe, etc.
Faire des mesures de latence et débit vers une cinquantaine de gros hébergeurs fournisseurs de contenus, ça ne suffit pas (il ne faudrait pas segmenter Internet avec les gros d’un côté et les petits de l’autre) mais ça ne coûterait pas si cher et ça donnerait déjà des résultats intéressants.
En ajoutant pas mal de tests de petits sites, variables chaque mois, en relevant les FAI qui ont une connectivité sensiblement inférieure vers un réseau ou un autre, on finirait par donner une bonne image de ce qu’offres les FAI, non ?
Responsabilité, faute et mesure
Il faut tout de même noter que si je parle de responsabilité, je ne parle pas de « faute ». Il ne s’agit pas de dire que tel ou tel FAI est en faute. Par contre, du point de vue utilisateur, avoir un retour sur ce que sera la réalité de sa connexion me parait bien indispensable.
-
OVH, ADSL, et VDSL
Si vous suiviez mes interrogations, j’ai fini par choisir une ligne ADSL Free.fr. Il s’agit pour moi d’éviter les problèmes qu’on m’a rapporté avec la Livebox d’Orange et d’espérer avoir une fibre par SFR ou Free avant un an. C’est l’engagement d’un an obligatoire pour l’offre Orange qui a emporté le choix : Impossible de tester et changer d’opérateur ensuite, ou impossible de basculer si besoin vers Free.fr quand l’offre Free Mobile sera là. Là je me réserve la possibilité de changer d’avis, quand je le souhaite.
Éligibilité, le modèle OVH
Aujourd’hui j’ai pu tester l’éligibilité OVH. Franchement la page de détails technique est un modèle du genre :
Déjà on me redonne mon adresse exacte, étage et cage d’escalier comprise. Ça n’a l’air de rien mais vu que j’emménage, avoir confirmation que je donne bien le numéro des anciens locataires et pas celui d’un voisin, c’est indispensable. Cette information m’a manquée dans mon inscription Free.fr.
Ensuite on ne me promet pas 24Mb/s théoriques, on me donne mon débit estimé pour ma ligne, calculé à partir de la distance au NRA. Mieux, on me donne le download mais aussi l’upload, le tout avec des latences estimées pour diverses destinations. Sans rire, quand je demande une connexion Internet, pourquoi tous les FAI ne me donnent pas tout ça ? C’est pourtant ce que j’achète.
Comme on reste sur des détails geeks, tout ça est joliment présenté. En plus des détails d’atténuation, distance, section des câbles, j’ai des graphiques de débit en fonction de la distance et de la technologie, des cartes où sont représentés les chemins ente mon domicile et le NRA, entre le NRA et le POP OVH, et un schéma récapitulant les distances en jeu. Peut être inutile mais j’ai l’impression d’avoir en face de moi quelqu’un de transparent sur ce qu’il fait et ce qu’il vend. C’est indéniablement positif.
Franchement, allez-voir. Je ne comprend pas pourquoi les FAI se sont évertués à faire disparaître les débits réels estimés au lieu d’enrichir ces informations comme le fait OVH.
Et en VDSL2 ?
Bon, après on me donne mon débit théorique VDSL2+ et là ça met une bonne claque. J’ai beaucoup entendu dire que même si l’investissement était faible, ça risquait d’inciter les FAI à s’en contenter et freiner leurs investissements fibre.
OVH m’indique que le débit VDSL2 serait de 80 Mb/s en descente et 31 Mb/s en montée. Autant dire que c’est plus intéressant l’offre fibre Orange actuelle (100/10, avec un fair use). Seule la latence risque de rester nettement moins bonne qu’avec la fibre.
Certes, une fibre ça peut aller bien plus loin, mais soyons francs, l’offre Orange ne risque pas de sortir des débits actuels avant un bout de temps. Nous parlons d’années. Entre temps, sur la distance qui est la mienne, le VDSL est tout aussi intéressant.
Et du coup j’ai du mal à comprendre, si ça permet aux opérateurs de réaliser le fibrage tranquillement, avec une priorité aux longues distances, est-ce si mal de penser au VDSL2 sur les petites distances en attendant le fibrage complet ?
-
Déclencher le cache applicatif HTML 5 par javascript
Parfois je me pose des questions existentielles. Hier c’était de savoir si le cache applicatif de HTML 5 pouvait être activé dynamiquement par javascript lors de l’exécution de la page, au lieu d’être déclaré de façon statique dans le code HTML.
L’idée derrière cette interrogation est que le cache applicatif ne soit activé que sur certains critères (compatibilité du navigateur avec le code javascript utilisé, requête spécifique de l’utilisateur, etc.).
Petit test :
<!DOCTYPE html><html> <head><meta charset=utf8><title>TEST offline</title></head> <body><script> document.documentElement.setAttribute("manifest", "cache.manifest") ; window.applicationCache.update() ; </script><body> </html>
J’ai été agréablement surpris par Mozilla Firefox, qui accepte le tout sans broncher. La déconnexion permet de vérifier que le cache applicatif fonctionne sans heurs.
Mes espoirs se sont arrêtés là, Chrome déclenche une exception sur la mise à jour à seconde ligne de script. Il faut déclarer le cache de façon statique dans le HTML. Pas le choix, dommage.
-
Formats de livres numériques avec DRM
Parce que ça peut servir à d’autres :
Nom Editeur Formats Utilisé par Commentaires Adept Adobe ePub, pdf, ascm Majorité, Kobo, B&N, Sony, Google DRM standard utilisé partout. Il peut s’attacher au matériel ou à un compte Adobe indépendant. Microsoft Microsoft lit Microsoft Abandonné Kepub (Adept) Kobo (Adobe) kepub Kobo Il s’agit d’un ePub avec quelques données en plus. Les fichiers peuvent être téléchargés au format ePub + DRM Adobe standard Topaz Amazon azw, tpz Amazon Nouveau format Amazon, basé sur son précédent format Mobipocket Mobipocket Amazon mobi Amazon (ancien) Format créé par Mobipocket (racheté par Amazon). Fonctionne avec un système de PID (clef unique par matériel) Ignoble (basé sur adept) B&N (Adobe) B&N Extension du DRM ADEPT d’Adobe où on utilise nom et numéro de CB comme clef (pour dissuader de partager) eReader B&N pdb, pml B&N (ancien), Palm Ancien format B&N, qui utilise lui aussi le nom et le numéro de CB comme clef pour frein social au partage FairPlay Apple Apple Interne à Apple, pas de recherche de faille à ce jour BBeB Sony lrx, lrs Sony Abandonné Hormis Apple Fairplay, tous les formats non abandonnés sont actuellement cassés. Le jeu du chat et de la souris est clairement en faveur de la souris depuis deux ans que le jeu à commencer. Vu le faible niveau d’obfuscation, on peut même penser qu’il n’y a pas vraiment de volonté de rendre ces systèmes de DRM vraiment efficaces. Vu le coût financier et utilisateur d’une mise à jour fréquente du système, ils n’ont d’ailleurs pas tout à fait tort.
Il reste qu’en une recherche simple sur Google, on tombe sur des archives zip qu’il suffit de faire manger à Calibre pour d’un coup pouvoir importer et convertir les fichiers protégés de manière transparente. C’est d’une simplicité telle que je me vois même plus facilement expliquer comme cracker le DRM que d’expliquer comment gérer sa bibliothèque avec les DRM.
La musique a fini par abandonner ces systèmes, on ne peut qu’espérer la même chose pour l’édition. Entre temps je cherche des arguments pour accélérer la suite.
-
Cachez moi ce sein que je ne saurai voir
J’ai dit à @Bortzmeyer que je tenterai d’expliquer ma position sur le vote actuel de la WikiMedia Fundation. Twitter est un peu petit, et le sujet est difficile. C’est long, vous pouvez passer directement à la conclusion si vous êtes fainéants.
De quoi parle-t-on ?
Début 2010 Fox « découvre » qu’il existe des images de nu sur Wikipedia. Plus que de nu, Fox parle de pornographie ou de pédopornographie. La direction de Wikimedia s’affole, ce qui me semble assez rare, et de nombreuses images sont purement dépubliées, ce qui me semble plus qu’exceptionnel.
Vu de l’extérieur ça ressemble beaucoup à une prise de panique sous la pression médiatique. Sont dépubliées quasiment toutes les illustrations liées au sexe. On y trouve des œuvres d’art comme des photographies ou des dessins illustratifs liés aux articles sur le sexe (bref, une photo de sexe féminin sur un article sur le sexe féminin).
Tout cela est caché rapidement, sans ménagement, sans concertation (ce qui est grave et rare dans la communauté Wikipedia). Il a fallu un bon moment avec beaucoup de réclamation pour voir revenir certaines œuvres d’art mondialement connues.
À ma connaissance, certains ont trouvé quelques images illustratives qui ne semblaient pas strictement nécessaires à la compréhension de la page encyclopédique (comme sur tous les autres sujets, ce n’était pas du tout spécifique au sexe) mais aucune hébergement gratuit de pornographie et encore moins de pédopornographie.
Le vote actuel n’est que la suite de ces actions, après concertation et conclusions.
Que vote-t-on ?
On vote la confirmation des conclusions et des solutions élaborées pour le problème relevé en 2010. Globalement la solution retenue est de labelliser les images. Chacun, identifié ou non, pourrait changer les préférences de sa navigation pour cacher ou montrer chaque catégorie d’image sujette à controverse. Si ce n’est pas dit explicitement, il est entendu que certaines catégories d’images seront cachées par défaut.
Voici donc les affirmations soumises au vote :
- Il est important que les projets Wikimedia offrent cette fonctionnalité aux lecteurs
- Il est important que la fonctionnalité soit utilisable à la fois par les lecteurs connectés et ceux non connectés
- Il est important de pouvoir dé-cacher une image : les lecteurs doivent pouvoir changer d’opinion relativement facilement.
- Il est important que les gens puissent rapporter ou tagger des images qui leur semblent controversées, lorsqu’elles n’ont pas été catégorisées comme telles.
- Il est important que cette fonctionnalité permette aux lecteurs de choisir rapidement et facilement quels types d’images ils veulent cacher (par exemple 5–10 catégories), ainsi les gens pourront choisir par exemple de cacher les images sexuelles mais pas les images violentes.
- Il est important que la fonctionnalité soit culturellement neutre : autant que possible, elle doit pouvoir refléter une vue globale ou multi-culturelle des images potentiellement controversées.
Diffuser le savoir
Le rôle de l’encyclopédie Wikipedia est de diffuser la connaissance et de la rendre accessible à tous. Je sais que j’enfonce des portes ouvertes, mais c’est finalement un point qui emporte mon avis sans même prendre en compte le reste.
Cacher du contenu, image ou texte, en assumant une auto-censure sur le sujets sensibles, c’est à l’opposé total de la raison d’être de Wikipedia. Son objectif devrait au contraire consister à mettre d’autant plus en avant les sujets et les contenus contre versés ou qui sont habituellement cachés par ailleurs.
C’est d’autant plus vrai qu’un contenu sujet sensible, caché par défaut, sera d’autant moins surveillé, enrichit, sujet à l’amélioration de la communauté. Ce sont pourtant eux qui mériteraient le plus ce travail.
Chut ! moins fort, on va nous entendre
Mais un des points qui me fait le plus peur dans cette histoire est surtout celui de la configuration par défaut. Si certaines images sont cachées par défaut, les ré-afficher devient une action explicite, qui peut même être subversive. Tentez de retirer le filtre « safe search » de Google devant vos connaissances, ou d’expliquez pourquoi vous avez voulu voir tant de photos explicites dans vos résultats. Au mieux on ricanera dans votre dos.
Imaginez alors notre adolescent qui veut voir s’il est fait comme les autres, ou comment est fait le sexe opposé. Imaginez un homme ou une femme qui désactive le filtre pour regarder les images d’une infection dont il commence à souffrir, ou qui faisait des recherches artistiques sur des œuvres comportant du nu. Imaginez-les justifier maintenant auprès de leur conjoint, parent, hiérarchie, bibliothèque, administration, pourquoi donc ils ont été pervers au point de demander explicitement des images à caractères sexuelles ou violentes ?
Oh, les adolescents ont de tout temps fait passé des photos ou des magazines sous le manteau. À vrai dire tout le monde préfère qu’ils aillent voir dans une encyclopédie plutôt qu’un site moins modéré. Mais reste qu’on leur reprochera je ne sais quelle perversité qu’on n’aurait pas eu l’idée d’invoquer s’il n’y avait de de filtre au départ.
L’auto-censure est vicieuse en ce qu’elle inverse les rôles. C’est celui qui veut s’en échapper qui doit se justifier, et subir les mauvaises interprétations d’autrui. On verra fleurir les réglementation en école, en bibliothèque, en entreprise, que la navigation devra être « non pornographique ». Désactivter le filtre des images sexuelles sur wikipedia… infraction mon bon monsieur.
On voit d’ailleurs d’autant mieux le tabou qu’il était un moment question d’autoriser les dessins mais pas les photos pour certains sujets. Le problème n’est plus la pertinence de l’illustration ou la violence de la représentation, mais la pression culturelle.
En ajoutant un filtre par défaut, on ne fait pas que subir les tabous des uns et des autres : on participe à leur diffusion et leur établissement dans les règles communes. Le rôle de l’encyclopédie n’est-il pas au contraire d’appuyer d’autant plus la diffusion de la connaissance qu’elle ferait partie des tabous ou des connaissances cachées ?
Hérésie !
Même si nous pouvions, que cacherions nous ? Un nu ? implicite ? explicite ? dans une rubrique médecine ? dans une rubrique amour ? dans une rubrique art ?
Rien que l’appel au vote parle de cinq à dix catégories et les essais d’interface laissent apparaître des catégories sexe et violence mais aussi « médecine » ou « autres sujets à contreverses ».
Finalement, dans la vie, certaines questions politiques, certains faits historiques, certains partis pris religieux ont bien plus de retentissement et de violence que le sexe ou le sang. On lance des guerres pour des caricatures et des hérésies, pas pour des seins et des fesses.
On risque de vite s’en rendre compte, politique et religion peuvent choquer, gêner, et bien plus. Dès lors, il va falloir justifier pourquoi on ne les filtre pas par défaut. Allons plus loin, pourquoi le texte ne serait pas choquant lui-même ? passé la surprise, la violence de la théorie de l’évolution pour quelqu’un a qui on a enseigné la création est extrêmement forte, idem pour une critique du christianisme, une description de la Shoah pour qui ne la connaît pas, ou un récapitulatif des versets sataniques.
Finalement la connaissance elle-même est justement un sujet gênant voire choquant. C’est sa propre existence que l’encyclopédie cherche à cacher si elle part dans cette voie là. Son rôle devrait au contraire être de braver ces interdits moraux ou culturels pour diffuser la connaissance.
Montrez-moi votre cheville
Mais ça ne s’arrête pas là puisque ces filtres de bienséance dont on fait la promotion sont hautement culturels. La défiance du nu n’est-elle pas fortement liée à notre civilisation judéo-chrétienne ? Est-ce que des tribus africaines ou indiennes, australiennes ont cette même peur ?
N’oublions pas qu’il y a encore un passé récent à l’échelle de la civilisation, les poitrines n’étaient pas tant taboues que les chevilles. Voir une cheville ? honte à toi. Ce que nous refusons aujourd’hui est culturel. Cela dépend de notre époque, mais aussi de nos racines culturelles. Placer des défauts par catégories sans imposer la vision occidentales, voire américaine, relèvera du défi. J’ose prétendre que c’est strictement impossible, même avec la mondialisation de la culture occidentale sur le web.
Il va falloir batailler dur pour oser dire que le nu est plus choquant ou problématique que tout le reste, et que ça ne vient pas simplement de la vision américaine qui se moque des versets satanique mais qui n’ose pas voir un téton.
Think of the children
Le problème c’est que comme toute censure moderne, on commence par la justifier avec l’argument de la pédopornographie, ou la protection de nos chérubins.
Quel manque de vision ! Je ne parle même pas de l’idée qu’un enfant choqué par la représentation d’un nu n’est probablement pas en âge de naviguer seul sur le web. Je pars simplement du fait que celui-ci trouvera bien d’autres sources pour sa curiosité naturelle et qu’à la limite c’est peut être sur Wikipédia qu’il vaudrait le mieux qu’il l’étanche.
Je conçois qu’il s’agit là d’une opinion personnelle fortement teinté de mes racines culturelles, mais croyez-vous que cet enfant ait besoin de Wikipedia pour tomber sur du nu dans notre société ? Tout au plus cela retire la « surprise », mais croire qu’il y aura surprise quand on va voir un article d’anatomie, d’art ou qu’on suit un titre « cunilingus » c’est se faire des illusions.
Pire, puisque si, comme il est proposé, chacun peut finalement afficher les images sur simple clic, ce ne sera même pas une protection. On ne va protéger que l’enfant qui navigue seul sur le web alors qu’il n’y est pas prêt, qui clique sur un lien dont il ne comprend pas le sujet, sujet qui affiche une illustration de nature sexuelle ou violente assez forte pour choquer sérieusement vis à vis de tout ce qu’on voit ailleurs dans nos sociétés. Pour ça, on est prêt à sacrifier beaucoup de ce qu’est Wikipedia et à promouvoir un ordre moral propre à une culture particulière.
Si vraiment c’était une question propre aux enfants, on aurait un sous-site wikipedia spécifique aux enfants, genre *.child.wikipedia.org, qui présente le même contenu mais avec ce filtre par défaut et éventuellement des bandeaux d’avertissements et quelques mises en contexte plus adaptées. Le travail initial est celui qu’on se propose de faire dans le vote, ni plus ni moins, mais on s’assure au moins qu’on ne cible que les gens qu’on cherche à protéger, que les effets de bord ne sont pas globaux.
Sur la proposition
Alors, j’ai répondu quoi ?
J’ai un gros 0 sur le premier point. Non seulement la proposition ne me paraît pas importante mais elle me paraît extrêmement nocive. Pour le reste, si vraiment on doit avoir un filtre par défaut, alors effectivement pas mal de points ont une importance plus ou moins grande, mais c’est vraiment « parce que j’y suis obligé ». Je n’ai pas su répondre au dernier point, j’ai mis que je trouvais cela très important mais je ne vois aucune solution qui permette d’assurer cette trans-culturalité.
La zone de texte est utile, elle m’a permis de réaffirmer les dangers que je voyais à cette politique, et d’amorcer deux pistes si vraiment on doit aller sur ce terrain :
- Que la catégorie d’une même image puisse être différente suivant la langue utilisée. Ce qui est choquant dans la culture francophone ne l’est pas forcément au Japon. C’est malheureux de croire que « francophone » représente une culture unique, mais c’est déjà mieux que de croire à une vérité globale.
- Que les filtres activés par défaut puissent être différents suivant la langue, pour la même raison, et avec le même regret de ne pouvoir cibler une culture plus précisément.
- Que les images filtrées soient téléchargées quand bien même elles seraient masquées, afin que jamais ce qui est là contre les mauvaises surprises ne puisse se retourner en outil de censure contre la connaissance, donc qu’on ne puisse pas savoir (facilement) si j’ai effectivement affiché l’image ou pas en consultant la page de la circoncision.
- Que dans l’idéal on puisse réserver un sous-site spécifique aux enfants afin que ces filtres leurs y soient dédiés, qu’on puisse les « laisser naviguer » sur cet environnement « moins dangereux » sans détériorer cet outil de connaissance qu’est le wikipedia principal. Pour le même prix ce wikipedia pour enfant peut cacher par défaut les liens externes (afin qu’on ne sorte pas inopinément de cette navigation « sûre ») et ne pas proposer d’édition (les contenus sont extraits du wikipedia principal et édités là bas).