Ça n’a l’air de rien, mais avec cette vidéo, qui n’est pas un MacBook Air de 1994, on ne peut que voir une copie totale du concept et de l’approche. Ça permet de remettre quelques procès récents en perspective.
Catégorie : Geek
-
Livre collaboratif, c’est lancé
Voilà, c’est fait. J’ai commencé la retranscription de mon livre sur la performance des sites web vers github pour en faire un projet collaboratif.
Vous retrouverez l’avant-propos et le premier chapitre d’introduction. Pour la suite je vais avoir besoin de vous comme promis :
- Vous avez un bon français écrit ? Nous avons besoin de relecture pour corriger les rares fautes, pour améliorer les formulations, retirer les répétitions, réaliser un meilleur découpage des paragraphes et globalement relever le niveau de français.
- Vous n’avez pas peu de faire un peu de code simple ? Nous avons besoin de personnes pour retranscrire les fichiers sources OpenDocument en fichiers Markdown avec illustrations jointes. Nous avons aussi besoin de gens pour vérifier et corriger la production de ces fichiers Markdown, améliorer la qualité des illustrations et créer des scripts d’automatisation.
- Vous vous y connaissez un peu ? Il faut mettre à jour les contenus, ajouter les dernières découvertes, documenter les améliorations des navigateurs, enrichir le contenu, et compléter les chapitres manquants.
Pour l’heure c’est assez simple : Si vous voulez améliorer l’existant il suffit de faire un fork sous github, modifier ce qui vous semble à changer et envoyer une pull request. L’investissement est quasi nul.
Si vous voulez aider à compléter l’existant le mieux est de m’écrire ou commenter ci-dessous avec le temps dont vous disposez pour que je vous envoie une partie du document source. Pour référence j’ai fait le chapitre 1 en environ 3 heures, mais rien n’interdit de prendre une partie plus petite. L’idée est de faire des aller-retour sur 2 à 3 jours tout au plus, en préférant beaucoup de petits pas à un très gros. Même une heure de travail permet de faire avancer les choses.
-
Prison dorée, ce n’est que le début : mac os x
Hier j’ai été « bloqué » par une application Mac qui refusait de se lancer. L’appli ne vient pas de l’app store et n’était pas signée => refus du Mac.
Tous les geeks m’ont répondu « il y a une option de configuration dans les préférences système, onglet sécurité » pour réautoriser les applications non validées par Apple. C’est à mon avis passer totalement à côté du problème. L’option de configuration, la plupart des gens n’iront pas la trouver, n’oseront pas la toucher, ou simplement sortiront avec un « installer cette application c’est compliqué ».
On est simplement en train de créer des applications de première classe, validées, mises en avant, et des applications de seconde ou troisième classe, autorisées uniquement explicitement en allant tripatouiller les préférences systèmes.
Vous ne me croyez pas ? Moins de 24 h après je tombe sur un article où l’auteur a tenté une installation d’un logiciel largement diffusé et échoué à cause de la restriction « app store ». Non, il n’a pas tripatouillé les configurations, il est passé au logiciel concurrent (lire le paragraphe juste sous la première illustration) :
Le temps de ces réflexions, le logiciel Kobo est téléchargé, en version Mac, mais une mauvaise surprise nous attend après l’installation. Apple refuse d’ouvrir l’application, parce qu’elle n’a pas été téléchargée depuis l’App Store, et à ce titre, la machine ne pourra pas la lancer. Rien à voir avec Fnac, Kobo, ni l’éditeur, se dit-on, mais tout de même… Direction l’App Store, pour tenter de poursuivre, et nouveaux déboires : pas d’application Kobo. Fin des opérations de ce côté. De quoi commencer à perdre patience, une fois encore. De son côté, ADE a correctement fait son travail, et ouvert notre lien de téléchargement sans peine. Et le document est ouvert.
Nombre d’applications vont passer par l’app store, et leurs auteurs ont bien raison, mais ça ne fera qu’augmenter le fossé entre les deux classes d’application, isolant encore plus celles qui n’y sont pas.
Le danger c’est que cela donne un pouvoir immense à celui qui contrôle l’app store et qu’Apple, et que la pomme pose des conditions franchement non neutres. Il est tout à fait possible que l’application dont parle l’article n’ait pas le droit d’être vendue sur l’app store sans retirer plusieurs fonctions, dont tout ce qui est vente en direct.
Alors oui, « yaka changer la configuration », et quand notre liberté sera de ne diffuser que des applications validées et conformes aux intérêts commerciaux d’Apple ou de subir une mise au banc avec procédure d’installation complexe et étiquette « application tierce je-serais-vous-je-n-y-toucherais-pas », il sera trop tard.
-
Cherche routeur
Je cherche un petit routeur. Avant de répondre avec vos choix habituels, voici mon besoin :
- J’ai besoin de deux ports ethernet qui redirigeront vers du WAN, le reste vers du LAN. Préférablement plus de deux ports LAN mais ce n’est pas primordial.
- Ces deux ports diffusent actuellement des annonces DHCP. Je ne suis pas certain de pouvoir couper les deux donc il faut que le routeur puisse filtrer ces annonces pour ne pas les laisser diffuser sur le reste du réseau.
- De la part des ports ethernet locaux, certains accès doivent être routés préférablement vers un port WAN ou un autre suivant la plage IP:port destination (et si possible en fonction de l’IP source, mais ce n’est pas nécessaire)
- J’aimerai un fail-over : quand la connexion semble HS sur un des ports WAN, que les accès soient alors tous routés vers l’autre port WAN
- Sur les ports locaux il me faudrait au moins deux réseaux distincts qui ne puissent pas communiquer entre eux
Ce peut être un petit routeur matériel, ou un boitier linux pas cher sur lequel faire tourner une distribution bsd ou linux dédiée que vous connaissez. Je suis ouvert à tout.
Je trouve des choses, mais à des prix plus élevés que mon budget. Que connaissez-vous qui puisse répondre à ce besoin sans avoir des prix monstrueux ?
-
Spam en ROT13
On dira ce qu’on veut mais pour le coup ÇA c’est du marketing cible (pour les geeks). Même si c’est du spam, c’est tellement unique que je ne peux pas m’empêcher de le partager :
To: « Get Vigara-Today » <A5BA548@xxxxxx.xxx>
Subject: Re: SALE!
From: rot13@rot13.comArj fnyr cevprf:
—————-Yrigven … 1.25$
Pvynvf … 1.14$
Ivtnen … 0.21$
Srznyr Cnpx … 1.20$
Snzvyl Cnpx … 2.12$
Cebsrffvbany Cnpx … 3.29$
—————–
Sbyybj fcrpvny yvax:
uggc://sHP.hgvbazrqvp.eh/
Pour ceux qui n’ont pas fait attention à l’expéditeur : ROT13. Le plus étonnant est que s’ils passent du temps à envoyer ça, c’est que ça doit fonctionner.
-
J’ai tout compris, je quitte Free
Je quitte Free.fr. Sans regrets.
La qualité n’était simplement plus au rendez-vous puisque la box désynchronise plus de 20 fois par jour en ce moment. Ça dure depuis un bon mois à vue de nez et ça va crescendo.
J’aurai certes pu appeler le support technique. Peut être que ça aurait résolu la situation, peut être pas. Disons que j’aurai pu tenter mais même si on me dit que ça vraiment changé, mes expériences passées sur le chat et la hotline étaient tellement mauvaises je suis peu attiré par l’idée.
Ajouté à ça les problèmes récurrents et assumés par la direction Free.fr de mauvais débit vers Youtube et quelques autres autres routes à fort trafic, l’accumulation de frustration devenait importante ; assez importante pour envisager partir chez un concurrent.
L’herbe est rarement plus verte ailleurs mais je suis éligible depuis à la fibre SFR. Un vrai débit montant, plus de problèmes vers Youtube, et jamais plus de désychronisations ADSL. Ça marche, je signe.
Pour la petite histoire, mon FAI actuel n’aurait pas eu un mauvais historique de service client et aurait pris plus au sérieux son activité principale qui est d’offrir de la connectivité (et non des services annexes), je n’aurai probablement pas sauté le pas. À bon entendeur…
-
Mise à jour vers Mountain Lion – clavier US
Au cas où ça serve à d’autres, lors de la mise à jour Mac vers Mountain Lion :
Il y a un redémarrage préalable à l’installation et un redémarrage après l’installation. Chacun vous demande de vous authentifier pour continuer.
Lors du premier, si vous avez chiffré votre disque avec FileVault, il vous faudra saisir votre mot de passe comme si vous aviez un clavier américain (lettre « a » et « q » inversées par exemple).
Rien ne l’indique, si ce n’est que les invites sont en anglais, ce qui peut mettre la puce à l’oreille. Le savoir peut vous épargner la petite frayeur du mot de passe qui ne fonctionne plus, d’autant qu’avec un disque chiffré la perte de mot de passe implique la perte des données et un reformatage complet nécessaire.
Je plains les vrais informaticiens qui auront mis des caractères spéciaux dans leurs mots de passe et qui devront retrouver la position sur un clavier US Mac. Je plains les non-informaticiens qui n’auront franchement aucune chance de comprendre ce qui leur arrive et pour qui l’idée de taper avec un agencement américain sur un clavier français n’a aucun sens.
-
Ce week-end c’était Backup day
On oublie toujours les backup, et même quand on y pense habituellement les incidents arrivent toujours au moment des rares oublis.
Au niveau personne, la disparition de mes données c’est la perte de 10 ans de photos, de tout mon carnet d’adresse avec téléphones, adresses et email, de mes documents, de mes 10 ans d’archives mail, de… à peu près tout en fait vu que je vis en numérique depuis 2001. La seule chose qui reste en papier c’est l’administratif et les factures… et même ça j’ai caressé plus d’une fois l’envie de numériser puis archiver en vrac dans un carton à la date de numérisation. Bref, si je perds les données c’est un peu comme si d’un coup je supprimais tout ce que j’ai de pertinent (c’est à dire tout ce qui n’est pas matériel).
De quand date votre dernier backup ? Mais plus que ça, quelle est votre stratégie ? Quelle niveau de sécurité attendez-vous ?
Stratégie
Il vous faut deux backup, dont au moins un non synchrone ou avec historique, dont un hors site, avec quelque chose qui vous alerte dès que l’un des deux devient inutilisable. Or cela, point de salut.
Au fur et à mesure je me suis fixé sur la combinaison suivante : Au quotidien (c’est à dire quand j’y pense) tout est archivé sur un NAS avec deux disques en RAID. De temps en temps, une à deux fois par an, je grille tout ce qui est pertinent sur des disques optiques. Ces derniers sont stockés hors site (chez les parents par exemple) au cas où ce qui est chez moi soit irrécupérable.
Le NAS c’est un DS207+ de Synology avec des disques de 1 To. Je n’ai jamais eu l’occasion de regretter et Synology a un suivi exceptionnel de son matériel : 4 ans après il y a encore des mises à jour alors qu’ils renouvellent leur gamme toutes les années. Le logiciel interne sait tout faire et l’accès root est possible pour ajouter ce qui manquerait.
Les disques optiques je suis passé d’années en années des CD au DVD, puis aux DVD DL et ce week end aux BD-R. Ça ne tient pas sur un seul disque mais la taille des répertoires grossit d’année en année et je me vois mal séparer ces unités en plusieurs. Cette année c’est le stockage des photos en RAW qui prends une place désastreuse. Il suffirait de trier et effacer ce qui n’a pas de sens, mais passer sur BD-R prend bien moins de temps :)
Le jour où j’aurai la bande passante montante nécessaire j’empilerai peut être des backup sur un stockage en ligne type crashplan ou une simple dedibox. Pour l’instant c’est assez inabordable avec ma connexion ADSL.
Quelques pistes d’attention
Une synchronisation n’est pas une sauvegarde
Dropbox ? Google Drive ? Gmail ? tout ça est à ranger dans la catégorie « synchronisation » et pas dans la catégorie « sauvegarde ». Si vous faites n’importe quoi ou si on vide votre compte, ça sera synchronisé d’un coup partout. Ce n’est pas purement hypothétique : ça arrive en vrai.
C’est vrai pour tout ce qui synchronise sans archivage. Si vous synchronisez votre NAS avec une Dedibox, que se passe-t-il si votre NAS est effacé ? Idem pour crashplan si vous n’achetez pas l’option qui active l’historique.
La synchronisation permet la haute disponibilité mais ça ne remplace pas un backup. Ce ne sont simplement pas les mêmes contraintes et les mêmes usages.
Un backup unique n’est pas suffisant
Vous avez un NAS avec un disque ? imaginez que demain il casse. Vous avez un NAS en RAID ? il ne vous servira à rien en cas de dégât des eaux, de dégât électrique majeur, de feu dans l’immeuble, ou simplement d’un cambriolage ou d’un méchant qui perce votre wifi ou votre mot de passe pour tout effacer.
Même si vous avez une totale confiance dans les serveurs redondés et sauvegardés de votre prestataire, les comptes gmail qui se vident c’est très rare mais c’est déjà arrivé. Tiens, imaginez aussi ceux qui avaient des données légales et bien placées avec un compte payant sur les serveurs redondés de megaupload… au revoir les backup. Le cas est extrême mais si la justice décide de saisir Crashplan, de bloquer Online.net ou d’interrompre Dropbox, vous n’aurez que vos yeux pour pleurer.
Deux sites distincts
Toujours avec les mêmes causes, même si vous avez bien deux backup, ils ne seront efficaces que s’ils sont sur deux sites différents. Un feu, un cambriolage, un choc électrique, ou un simple dégât des eaux risque de rendre inutilisable d’un coup vos deux backups. Point de salut : l’une des deux copies doit être hors site.
Ramener une copie au boulot, chez les parents ou chez des amis peut suffire. Pas besoin d’imaginer une architecture complexe.
DEUX MÉDIA DIFFÉRENTS
Pour des raisons similaires, je vous incite à prévoir deux solutions de backup différentes, avec des technologies différentes. En cas de défaillance imprévue, vous mettez toutes les chances de votre côté en espérant que l’autre type de média ne sera pas affecté. Pensez par exemple à ceux qui voyait dans le CD un support définitif et qui se sont retrouvés avec des disques inutilisables au bout de 5 à 10 ans ? En avoir deux copies n’a pas du aider beaucoup.
Cette règle n’est pas neuve, si vous mettez en route des RAID, la bonne pratique est d’avoir des disques de marques différentes ou au moins de modèle différents pour ne pas risquer qu’ils cassent à des dates proches (là aussi ce n’est pas hypothétique, ce sont des cas réels).
Quelques pistes
Dans la liste suivante il vous faut deux média différents, au moins un asynchrone ou avec historique, et au moins un hors site :
Fiabilité Hors site Asynchrone Historique Disque USB mauvaise partielle (*1) oui possible 2x disque USB bonne possible (*1) oui possible NAS simple mauvaise non au choix possible NAS RAID bonne (*2) non au choix possible Dropbox (synchro en ligne) bonne oui non possible Crashplan (backup en ligne) bonne possible non oui CD, DVD, BD-R bonne sur 2 à 5 ans possible oui oui Serveur en ligne au choix (raid ?) oui au choix au choix Bande moyenne possible (*1) oui oui (*1) Les disques USB et les bandes peuvent être mis hors site mais devront être amenés sur site pour les resynchroniser. C’est toujours à ce moment là qu’arrivent les problèmes, ou qu’on fait une mauvaise manipulation lors de la sauvegarde qui efface et la source et la destination. La solution est d’avoir un jeu d’au moins deux disques et de les amener sur site en alternance, ainsi on a toujours une copie sécurisée hors site quoi qu’il arrive.
(*2) Certains NAS RAID ne vous alertent pas (ou pas assez bien) quand un des deux disques est en rade. Du coup ça reste en rade jusqu’à ce que le second tombe aussi. Seuls ceux qui ont des alertes efficaces (c’est à dire qu’on ne peut pas ignorer même si on ne fait pas attention) sont à considérer comme ayant un RAID efficace.
N’oubliez pas que pour qu’une sauvegarde hors site par réseau soit efficace, il vous faut soit une bonne bande passante montante soit un volume de sauvegarde limité. Sauvegarder 100 Go par une ligne ADSL, même de bonne qualité, ça va vite ne pas être raisonnable. Vous ne profiterez réellement de Crashplan ou de ses concurrents qu’avec la fibre.
Enfin : Si vous laissez des sauvegardes hors site, et particulièrement si elles sont en ligne, les chiffrer n’est pas totalement inutile. Si voir vos données divulguées à des tiers pose problème, alors c’est même indispensable (et dans ce cas oubliez Dropbox).
-
Connecter une PME à Internet
Trouver une connexion Internet adaptée à une PME c’est vite le parcours du combattant.
Notre besoin initial c’est le surf web de tous les jours pour une petite dizaine de personnes, les petits téléchargements, les mails, les pièces jointes parfois un peu volumineuse, la téléphonie voip, et exceptionnellement des téléchargements de backups ou des envois de données sur les serveurs de production.
Pour traduire ça en caractéristiques techniques, les coupures sont critiques comme pour tout le monde, mais nous ne mourrons pas si nous avons quelques heures d’indisponibilités une ou deux fois dans l’année. Nous n’utiliserons pas forcément une bande passante moyenne énorme, mais quand il faut envoyer un fichier de 20 Mo, descendre une sauvegarde de la base de données ou monter 500 Mo en production, c’est plus qu’agréable d’avoir un débit conséquent. Rien de plus gênant que de devoir perdre du temps à envoyer un PDF de 20 Mo à un correspondant.
Si j’avais le choix, une offre fibre pour particulier à 100 Mb/s descendant 50 Mb/s montant, doublée avec une SDSL ou ADSL standard chez un autre FAI, conviendrait à merveille en terme de qualité de service et de capacité en débit.
En pratique notre bureau n’est pas connecté aux réseaux fibrés résidentiels, donc il faut composer autrement.
Débits et prix
L’ADSL c’est du 20 Mb/s descendant, 1 Mb/s montant, pour 30 à 40 € TTC mensuels, moitié plus cher si on prend un FAI « pro » avec une GTR de 4h. Les offres sont assez cohérentes.
Côté SDSL l’offre imbattable côté prix c’est OVH qui propose 5 Mb/s symétriques sur une paire de cuivre pour 30 € par mois, sans engagements ni frais d’installation ou résiliation. Les concurrents ont eu beau me soutenir que ces débits étaient impossibles sur une unique paire de cuivre, j’ai pu constaté que les 5 Mb/s sont effectivement atteints. Si vous voulez du GTR 4h (heures ouvrées) on passe à 100 € par mois avec un engagement d’un ou deux ans et des frais d’installation. Sur cette dernière il est possible de cumuler jusqu’à 4 paires de cuivres pour un débit de 20 Mb/s symétrique (mais la facture augmente).
Chez la concurrence en SDSL c’est la vraie jungle. Le plus souvent c’est limité à 2 Mb/s par paire de cuivre et avec un prix aux alentours de 200 € mensuels par paire, plus des frais d’installations et un engagement de deux ans. Parler de 8 Mb/s c’est quadrupler les prix, tout simplement. Seul Colt propose du 5 Mb/s sur une seule paire, mais à 500 € mensuels. Tous ces prix sont avec une GTR, en général de 4h en heures ouvrées.
Si on souhaite monter un peu en débit il faut passer par des offres « fibre ». Là il faut sortir le portefeuille. On parle assez rapidement de 750 à 1500 € mensuels pour 10 Mb/s, sans compter le raccordement initial.
La GTR, la haute disponibilité
On peut facilement se dire qu’une coupure est inacceptable, empêchera les gens de bosser, de recevoir les coups de téléphone. C’est souvent vrai mais outre la question « quel montant est-il raisonnable d’investir pour éviter une coupure ? », il faut bien penser à « ce montant me garantit-il vraiment contre une coupure ? »
La GTR et le débit garanti ce sont les deux mots de tous les commerciaux qui vendent de la SDSL. En pratique ne vous y trompez pas : Une GTR de 4h en heures ouvrées, ça veut dire que votre ligne peut tomber une demie journée et ne la voir réapparaitre que le lendemain matin. Hors cas exceptionnel, la qualité ne sera donc pas forcément meilleure qu’une ligne résidentielle grand public.
Sur les cas graves on peut compter avoir des équipes qui interviennent avec plus de sérieux et plus d’implication mais le GTR ne « garantit » en fait rien. Il vous permet juste de récupérer une faible partie de la facture mensuelle si l’accès n’est pas rétablit.
Si le problème est au niveau du répartiteur ou de la boucle locale, il est probable que ça ne change rien au temps de rétablissement. Si le problème est au niveau du FAI, avoir une seconde ligne en parallèle chez un second FAI vous coûtera probablement moins cher que la GTR « pro » tout en ayant un bénéfice bien plus grand.
Le plus symbolique c’est bien l’offre OVH où la même connexion passe de 30 € à 100 € en ajoutant la GTR. La techno est la même, l’infra est la même. Je veux bien croire que l’équipe sera un peu plus réactive, mais si la résidentielle tombe c’est probablement que la pro serait tombée aussi, et les temps de rétablissement réels ne seront pas foncièrement différents. L’équipe commerciale OVH confirme d’ailleurs très bien ça au téléphone en disant que l’offre avec GTR c’est « pour ceux que ça rassure ».
La gamme de choix
En montant une SDSL OVH doublée par une ADSL standard d’un autre FAI on est loin d’être « sans risques » mais c’est un risque qui peut probablement être assumé.
Le choix du pauvre c’est donc un 60 € par mois pour le couple SDSL + ADSL. Pour le même prix ça permet d’utiliser l’un ou l’autre suivant qu’on a besoin de débit montant ou descendant. Le résultat c’est un peu 20 Mb/s en descendant, 5 Mb/s en montant (si vous êtes proche du sous-répartiteur).
Pour ajouter quelques bretelles on peut prendre la GTR sur la ligne OVH, et une offre avec clef 3G de secours côté ADSL SFR. La GTR permet de combler les problèmes simples, et la clef 3G permet de border si c’est quelque chose de grave et long. Ça ne sera pas idéal, ça ne couvre pas tous les cas, mais ça reste abordable pour 150 € mensuels.
Monter en débit demandera un investissement de 100 € mensuels par paliers de 5 Mb/s sur la SDSL. La fibre et les liaisons dédiées n’auront de sens que si vous ne pouvez vraiment accepter aucune coupure (mais sans vous faire d’illusions : vous en aurez quand même), si vous voulez plus de 20 Mb/s (mais la facture sera multipliée par 5 rien que par le changement de techno avant même de dépasser les 20 Mb/s), ou si vous n’êtes pas proches d’un sous-répartiteur (mais peut être que déménager la PME coûtera moins cher que de passer par une fibre).
Si vous montez une boîte techno, être sur de la fibre résidentielle à 45 € par mois vous sauvera pas mal de cash les premiers temps. Ça vaut le coup de le prendre en compte dans votre localisation initiale.
-
Do Not Track (enfin pas moi, les autres on peut)
DNT c’est le nom d’une petite entête qui peut être envoyée par votre navigateur pour demander aux éditeurs de sites et services web de ne pas vous tracer et stocker vos données personnelles. L’idée est séduisante, surtout si les éditeurs en question acceptent de respecter cette demande, et c’est bien toute la problématique.
L’imposer à ceux qui n’en veulent pas
Les éditeurs n’ont bien entendu aucune envie de se passer d’autant de données et de possibilités. En même temps ils savent que s’ils ne font rien, un jour le raz le bol pourrait devenir suffisant pour qu’on leur mette des bâtons dans les roues de manière durable et plus stricte. Du coup ils acceptent généralement des chartes ou des mécanismes d’opt-out, comme autant de soupapes pour satisfaire les plus radicaux et comme preuves de bonne foi vis à vis des politiques.
L’enjeu de DNT est là : Tant que le mécanisme est confidentiel, il sera accepté par certains éditeurs, comme une bonne soupape. Si le mécanisme devient utilisé massivement alors il sera vite mis au rebut car il tuerait toute l’activité. N’importe quel prétexte suffirait mais il n’y aura même pas besoin d’annoncer quoi que ce soit, il suffira de ne pas le respecter.
Mozilla : opt-out
Mozilla a choisi d’implémenter DNT en le laissant désactivé par défaut pour ne pas déclencher cette bombe atomique et tout casser. Charge à chacun d’aller dans les préférences pour l’activer manuellement. Seuls « ceux qui savent » (geeks et utilisateurs avancés) iront modifier les configurations. Mozilla pourra dire que son navigateur implémente DNT alors que celui de Google ne le fait pas, les éditeurs de services auront leur soupape-prétexte pour éviter des risques plus importants, et les geeks très au fait des questions de vie privée auront leur option.
Ce qui me gêne dans l’équation de Mozilla c’est qu’elle est très bien pour les communiqués de presse de tout le monde, mais qu’elle laisse pour compte 95% des utilisateurs du navigateur dont probablement l’essentiel auraient demandé à ne pas être tracés si on leur avait posé la question (vous en connaissez beaucoup qui souhaitent être tracés ?).
Objectif à long terme
Il y a paraît-il un scénario long terme avec une mise en œuvre progressive, et peut être un support de la loi. Franchement je n’y crois pas une seconde. Les sociétés de data mining sont un lobby suffisamment puissant et bien organisé pour ne pas se laisser prendre dans une telle souricière, surtout si elle est publique. Il y aura une fronde dès que ça deviendra trop politique, et un arrêt du support s’il y a risque d’utilisation plus massive.
Entre temps Mozilla aura simplement joué le jeu de ces sociétés contre ses propres utilisateurs, leur donnant simplement du temps avant le conflit ouvert qui ne pourra qu’arriver si on continue la pression.
Microsoft : opt-in
L’alternative n’est pas forcément plus engageante. On peut poser la question à l’utilisateur mais ce procédé atteint vite ses limites. C’est très désagréable pour l’utilisateur et une fois qu’on commence on finit vite par lui demander de remplir un vrai formulaire de police.
Il ne reste donc qu’à activer DNT par défaut (et laisser ceux qui le veulent vraiment le désactiver, mais personne ne le fera), déclencher une utilisation massive, et mettre les éditeurs de service au pied du mur. Il y a toutes les chances que ça signe la mort de DNT mais au moins les choses auront été claires.
Mais alors ?
Je serai plutôt partisan d’échouer vite et bien, pour laisser la place à d’autres initiatives. Ça ne changera peut être rien au final par rapport à la situation de Mozilla, mais nous n’aurons pas donné aux éditeurs de quoi faire semblant et obtenir des délais pendant encore deux ans.
Je ne prétends pas que cette option est forcément meilleure. Je trouve un peu hypocrite le choix de Mozilla mais même si je n’y crois pas, je respecte leur choix d’essayer d’avancer par petits pas avec l’espoir de mettre en place un plan sur le long terme, mais au moins elle a le mérite d’être honnête et d’avoir du sens. Par contre je me refuse à critiquer Microsoft pour avoir eu le courage de choisir la voie directe.