Catégorie : Geek

  • Cher­cher une impri­mante

    Je dois rempla­cer notre impri­mante et en faisant quelques calculs je me rends comp­te… C’est fou comme ces choses là sont chères en consom­mables.

    J’ai fait mes calculs et sur les 10 ans de vie de la notre, j’ai du payer entre 1 000 et 2 000 € en cartouches d’encre offi­cielles, peut-être même plus. Même en utili­sant des cartouches compa­tibles, c’est très loin d’être négli­geable.

    Ne regar­dez que le coût à la page (et ne vous fiez pas aux esti­ma­tions de nombre de pages des jets d’encre, vous consom­me­rez peut-être plus en nettoyage des têtes qu’en impres­sion)

    Autant dire que le prix de l’im­pri­mante ne compte pas. Il vaut mieux ajou­ter quelques centaines d’eu­ros à l’achat si ça peut permettre d’avoir des consom­mables de grande capa­cité moins chers sur la durée.


    Du coup je regarde.

    Je cherche de la couleur, un scan­ner à plat, connec­tée en ether­net ou en wifi. Si ce n’est pas beau­coup plus cher, j’en privi­lé­gie­rai une qui sait impri­mer recto-verso. Le luxe serait un char­geur de docu­ment avec numé­ri­sa­tion recto-verso (je numé­rise tout l’ad­mi­nis­tra­tif, et ça prend beau­coup de temps sur un scan­ner à plat).


    En premier prix j’ai l’Ep­son EcoTank ET-2756. L’im­pri­mante fait presque 300 € mais il n’y a pas de cartouches, juste des réser­voirs qui se rechargent avec des bidons grande capa­cité à un prix ridi­cule.

    À 10 € les 7 500 pages, on a de quoi voir venir. Le seul risque c’est de boucher les têtes d’im­pres­sion.

    Il semble que la qualité des couleurs soit infé­rieure à celle des jets d’encre clas­siques. J’ai­me­rais quand même bien un retour réel là dessus.


    Le second choix c’est le laser couleur.

    Il faut monter dans le milieu de gamme profes­sion­nel pour trou­ver des toners non-offi­ciels vrai­ment abor­dables. Coup de chance, c’est aussi là où j’ai une chance de trou­ver des char­geurs de docu­ments avec numé­ri­sa­tion recto-verso.

    Je lorgne la Brother MFC-L3770CDW et la Canon i-SENSYS MF645Cx, entre 325 et 400 €.

    J’ai peur du rendu des images couleur mais en fait ce qui me bloque c’est surtout l’en­com­bre­ment. On parle de 45 × 45 × 50 cm, plus adéquat à côté d’un open space que dans la pièce qui nous sert de bureau


    Entre les deux il y a le jet d’encre orien­tée PME. La HP Offi­ceJet Pro 9015.

    Coût initial moins élevé, char­geur avec numé­ri­sa­tion recto-verso, encom­bre­ment accep­table, vitesse et rendu correct. Les cartouches ne sont pas chères mais ça ne sera jamais aussi bas que les options précé­dentes.


    Et vous ? Que conseillez-vous ? Vous avez des retours sur les impres­sions couleurs des Ecotank ou des Pixma G ? Sur le rendu des images couleurs sur des laser de la gamme PME ?

  • Retrou­ver RSS

    Je n’ai jamais arrêté les flux de syndi­ca­tions. J’ai désor­mais deux comptes Inorea­der avec respec­ti­ve­ment 600 et 200 flux.

    Je pour­rais accep­ter leur nouveau prix mais j’ai en paral­lèle trop de flux qui deviennent illi­sibles. J’ai perdu Tumblr, Insta­gram et quelques autres.

    Bref, je cherche un nouveau serveur pour y lire mes flux. Idéa­le­ment ce devrait être un service en ligne à prix raison­nable. À défaut je peux imagi­ner auto-héber­ger une solu­tion libre ou instal­ler une appli­ca­tion locale sur mon mac.

    • Pouvoir gérer une grande quan­tité de flux (>500) avec une lecture rapide
    • Pouvoir s’abon­ner à des OPML
    • Insé­rer des scripts qui créent le RSS pour les sites qui n’en ont pas ou qui imposent un parcours web préa­lable
    • Insé­rer des filtrent sur certains flux RSS (ne rete­nir que les items d’une certaine caté­go­rie, exclure certains mots clefs)
    • Pouvoir faci­le­ment bascu­ler entre la vue web et le résumé inclus sans le RSS

    Connais­sez-vous quelque chose à me recom­man­der ?

  • Éthique et Lima

    Le projet Lima s’éteint. C’est dommage. Je suis convaincu que les équipes de Lima ont fait tout ce qu’elles pouvaient pour que ça n’ar­rive pas. Des fois « on n’y arrive pas ». C’est dommage mais c’est ainsi et on doit plutôt remer­cier les gens d’avoir essayé.

    Les appa­reils concer­nés vont à terme deve­nir inuti­li­sables. C’est un bon exemple de « n’uti­li­sez pas d’ap­pa­reils connec­tés qui dépendent d’un service centra­lisé » mais à mon sens la leçon n’est pas celle là.

    Je n’aime pas tirer sur l’am­bu­lance mais mon problème est un problème éthique.

    What happens if CGC dies ?

    What’s good with Lima is that it’s enti­rely private and decen­tra­li­zed. So Lima can work inde­pen­dently from any servers, and conti­nue mana­ging your data even if our star­tup dies (disclo­sure: we don’t plan anything like that)

    The only thing we manage on our side of the equa­tions are updates of our app and the web inter­face of Lima. In case of company crash, we’ll do our best to open source at least the most criti­cal parts of our code, so the commu­nity conti­nues impro­ving the solu­tion every night.

    FAQ sur la page Kicks­tar­ter, le 6 août 2013

    La dispa­ri­tion de l’en­tre­prise a été envi­sa­gée dès le début de l’aven­ture (c’est bien) et des éléments de réas­su­rance ont été posés (c’est bien aussi, même si ce n’est que du best effort).

    J’ai un problème éthique parce que toutes les équipes de Lima, des fonda­teurs jusqu’aux déve­lop­peurs ont accepté de poser ces éléments de réas­su­rance alors qu’ils semblent faux.


    En pratique le serveur de l’in­fra­struc­ture Lima est un compo­sant essen­tiel et les boitiers vont progres­si­ve­ment arrê­ter de fonc­tion­ner. Ce n’est pas moi qui le dit, c’est Lima eux-mêmes. Là on est dans la trom­pe­rie pure et simple par rapport à la promesse affi­chée.

    While your Lima product synchro­nises with your devices without servers, our servers are still needed to make your devices find each other and esta­blish a connec­tion.

    Unfor­tu­na­tely, as our services shut down, your Lima will progres­si­vely stop to work.

    This time, it’s Good­bye. Page d’ac­cueil Lima

    La promesse de l’open source est simi­laire. En pratique il est impos­sible de passer le code open source une fois la société en liqui­da­tion. C’est confirmé par les réponses sur Twit­ter.

    C’est simple­ment légal. Les action­naires perdent le contrôle de la société et le liqui­da­teur a l’obli­ga­tion légale de tirer le maxi­mum des posses­sions de la société. Ça inclut le code source et la propriété intel­lec­tuelle. Libé­rer le code source gratui­te­ment n’est léga­le­ment plus possible.

    Le problème c’est que ce n’est pas une surprise.

    Il aurait fallu s’y prendre avant le début des diffi­cul­tés. Il aurait fallu dépo­ser le code source régu­liè­re­ment chez un tiers de confiance et s’en­ga­ger contrac­tuel­le­ment avec lui sur une cession de droits qui ne devien­dra effec­tive qu’à certaines condi­tions pré-établies.

    Même si la FAQ parle de « do our best », on est dans la trom­pe­rie. Il n’est pas imagi­nable que la ques­tion ait été abor­dée dans la FAQ et que les colla­bo­ra­teurs de l’en­tre­prise aient pu igno­rer les enjeux ci-dessus. Ils semblent pour­tant ne rien avoir prévu, consciem­ment, et avoir parti­cipé là aussi à un déca­lage signi­fi­ca­tif entre le discours et les actions.


    J’en veux aux déve­lop­peurs qui ont parti­cipé à ça, et qui vont mettre le doute sur tous les autres.

    Déve­lop­peurs, vous ne devriez pas mettre l’éthique de côté. Vous ne devriez pas appor­ter votre concours à des socié­tés qui trichent, qui trompent, peu importe le degré de cooli­tude du produit ou du service.

  • Ne fais pas atten­tion au débit de ta fibre

    Ami, tu viens d’être éligible à la fibre ou de démé­na­ger là où la fibre est présente. Tu cherches un opéra­teur.

    Ne fais pas atten­tion au débit. Si tu viens de l’ADSL ça va être le jour et la nuit quoi que tu choi­sisses comme offre fibre. Tu auras des offres allant de 200 Mb/s à 10 Gb/s, à compa­rer à ton ADSL qui se situe quelque part entre 8 et 20 Mb/s en descen­dant et au mieux 1 Mb/s en montant.

    En réalité tu ne verras pas de diffé­rence signi­fi­ca­tive au jour le jour entre les offres à 300 Mb/s et les offres à 1 Gb/s. Tu n’at­tein­dras de toutes façons que rare­ment de tels débits de toutes façons. Ne parlons même pas du 10 Gb/s, là on est dans du marke­ting.

    Regarde tout le reste : la qualité de la box, regarde le prix initial mais aussi si ce n’est pas une offre promo­tion­nelle pour les 12 premiers mois qui va doubler au bout d’un an, regarde les frais d’ins­tal­la­tion ou de rési­lia­tion, regarde s’il y a une offre TV qui te corres­pond, regarde les délais habi­tuel de l’opé­ra­teur pour les instal­la­tions, regarde la qualité de leur support client, etc. Tout ça a bien plus d’im­por­tance que le débit des offres fibre, et te touchera de façon bien plus forte.


    La réalité est plus complexe que le dépliant du four­nis­seur d’ac­cès

    On a tous envie de se dire qu’entre 10 Gb/s (10 000 Mb/s) et 300 Mb/s, ça se voit un peu quand même. La réalité est plus complexe. Ce chiffre ne reflète que le débit théo­rique entre la box et le four­nis­seur d’ac­cès.

    Déjà chez toi : Si tu es sur WIFI, tu peux oublier l’idée d’al­ler à plus de 500 Mb/s en pratique même en t’as­seyant juste à côté de ta box. Pour aller plus loin il faudrait un câble ether­net. Ils sont déjà loin les 10 Gb/s. En réalité sur un appar­te­ment un peu bruité, avec un peu de distance, c’est déjà très bien si on arrive à faire du 300 Mb/s en pratique. Ne parlons même pas d’avoir un mur entre le poste infor­ma­tique et la box. Si c’est pour travailler à partir d’une carte SD tu n’ap­pro­che­ras de toutes façons même pas les 100 Mb/s.

    Ensuite en face : Non le serveur d’en face ne te permet­tra géné­ra­le­ment pas d’échan­ger en Gb/s de toutes façons. Même 300 Mb/s tu ne le trou­ve­ras pas si souvent. On en est au point où régu­liè­re­ment il y a des bisbilles avec Youtube, Netflix et les autres parce que les échanges entre eux et les four­nis­seurs d’ac­cès ne dépassent pas la dizaine de Mb/s aux heures de pointe.

    Et de toutes façons sur l’usage : Les hauts débits se trouvent quand tu télé­charges un gros contenu de façon soutenu. Tu envoies des fichiers de quelques Mo ou moins ? le temps sera plus dépen­dant du nombre de fichiers que de la bande passante dispo­nible. Tu fais de la navi­ga­tion web ? à ces vitesses le temps d’af­fi­chage dépend bien plus du déve­lop­peur du site que de la capa­cité de ta ligne.

    Et fais atten­tion à SFR : Si tu démé­nages dans un appar­te­ment exis­tant et que ni Orange ni Free ne proposent pas d’offre fibre pour ton appar­te­ment, il est probable que ton immeuble soit câblé et non fibré (oui, même si SFR conti­nuera à te dire que c’est de la fibre). Tu peux le véri­fier faci­le­ment : Si ça ressemble à une prise d’an­tenne TV, que ça a un diamètre plus proche d’un câble d’an­tenne TV que d’un petit cable USB, c’est du câble coaxial et pas de la fibre.

    Là (coaxial SFR) toutes les instal­la­tions ne sont pas équi­va­lentes. Certaines montent effec­ti­ve­ment jusqu’à 1 Gb/s, d’autres non. Tu auras souvent toutes les peines du monde à obte­nir le vrai chiffre de la part de leur service commer­cial qui te servira du « jusqu’à 1 Gb/s » ad libi­tum . Bref, ache­ter une offre plus chère afin d’avoir un plus haut débit théo­rique et remarquer que c’est fina­le­ment bridé par l’ins­tal­la­tion en place, ça serait dommage.


    Je ne dis pas que tu ne dépas­se­ras jamais les 300 Mb/s mais ça ne repré­sen­tera pas ton quoti­dien. Même s’il t’ar­rive de télé­char­ger des conte­nus vidéos ou des grosses archives à partir d’un ordi­na­teur bran­ché par câble, la diffé­rence entre 300 Mb/s et 1 Gb/s, c’est télé­char­ger un DVD complet en envi­ron 100 secondes au lieu de 30. Je doute que l’at­tente supplé­men­taire soit de nature à influen­cer sur le choix de l’offre Inter­net.

    Si vrai­ment tu veux regar­der le débit, regarde le débit montant

    Le débit descen­dant c’est celui que tu utilises pour télé­char­ger quelque chose en prove­nance d’In­ter­net. C’est celui qui est géné­ra­le­ment mis en avant parce que le plus gros des deux.

    Celui qui peut t’in­té­res­ser c’est le second, qui sert à envoyer des conte­nus vers Inter­net. Il doit t’in­té­res­ser parce qu’il est géné­ra­le­ment bien plus petit.

    Ce n’était pas impor­tant sur ADSL parce que le débit ne te permet­tait pas grand chose d’autre que du descen­dant. Avec la fibre tu vas proba­ble­ment bran­cher un Google Drive, un Drop­box, peut-être un logi­ciel de sauve­garde. Tu vas vouloir envoyer d’énormes photos voire des vidéos ou de mons­trueux docu­ments bureau­tiques pas opti­mi­sés. Bref, l’usage va chan­ger et ce serait dommage d’avoir un débit trop ridi­cule en montant.

    Entre le 200 (descen­dant) / 50 (montant) de SFR et le 300 (descen­dant) / 300 (montant) de Sosh, tu as beau­coup plus de chances de ressen­tir la diffé­rence de débit montant que la diffé­rence de débit descen­dant (même si 50 Mb/s en montant ça reste 50 fois mieux que ce que tu avais en ADSL, et pas ridi­cule du tout, donc pas forcé­ment le critère).

  • Luttons contre les moulins

    J’aime bien les combats impos­sibles.

    Alors en ce moment je prends choi­sis chaque jour un SPAM reçu, si possible un d’une société connue et sérieuse, et je demande accès aux infor­ma­tions qu’ils ont sur moi, à l’ori­gine de ces infor­ma­tions, et la preuve du consen­te­ment pour m’en­voyer leur cour­rier.

    Je prends donc l’email de SPAM et je réponds dessus. Ça me donne l’adresse de retour mais en géné­ral elle ne mène à rien ou ne sera pas lue. J’ajoute l’adresse de contact sur je trouve sur le site web, et s’il y en a une l’adresse de contact pour les demandes sur les données person­nelles. S’il m’en manque une, j’ajoute aussi contact@ qui existe très souvent

    En géné­ral ça passe par des pres­ta­taires. Dans le meilleur des cas le fichier est le leur et c’est un tiers qui fait l’en­voi et le routage, et qui a donc accès aux données. Si c’est du SPAM c’est que juste­ment je n’ai jamais donné mon accord, et souvent ils utilisent un fichier d’un tiers. Parfois c’est même un tiers qui fait la pros­pec­tion à leur place et est réméré à l’ap­port de clien­tèle donc ils ne savent même pas ce que ça se passe ainsi.

    Si j’ar­rive à voir mention du pres­ta­taire ou de loueur de fichier, je fais les mêmes opéra­tions : L’adresse de contact ou service client, celle du RGPD s’il y en a une, et contact@. On y fait parfois mention en bas de l’email, ou on en voit les domaine dans les URLs des liens avant redi­rec­tion. Parfois il faut cher­cher un peu, d’au­tant que souvent les domaines direc­te­ment visibles ne sont que des façades vides et il faut trou­ver la vraie société derrière le nom commer­cial.

    Enfin, quand j’ai ces diffé­rentes adresses, en géné­ral cinq ou six, je change le sujet. Si je garde le sujet de la news­let­ter, j’ai toutes les chances que le mail ne soit pas lu ou pas pris avec sérieux. J’ai choisi « Infor­ma­tions RGPD » pour allu­mer quelques lumières chez les gens, mais ça pour­rait être autre chose.

    Enfin l’email :

    Bonjour,

    En appli­ca­tion de l’ar­ticle 15 du Règle­ment géné­ral sur la protec­tion des données (RGPD) je souhai­te­rai avoir copie de l’en­semble des données (*) me concer­nant dans vos fichiers, les fichiers de vos pres­ta­taires.

    Pour cela vous pouvez opérer une recherche à partir de l’adresse email que vous avez utilisé: [email xxxxxx@xxxxx]

    Si vous ne déte­nez pas direc­te­ment ces données mais êtes passés par un pres­ta­taire qui opère un fichier en propre, merci de lui trans­mettre cette requête au titre du RGPD.

    Par la même occa­sion, je vous demande d’y joindre l’ori­gine de la collecte de ces infor­ma­tions ainsi que la source de mon consen­te­ment pour la récep­tion de ces cour­riers publi­ci­taires par email. En cas de diffi­cul­tés, je vous deman­de­rai de me mettre en contact avec votre délé­gué à la protec­tion des données (DPO).

    Enfin, je vous deman­de­rai de faire suivre cette demande d’in­for­ma­tion à tout pres­ta­taire, parte­naire ou client avec lesquels vous auriez pu parta­ger les données mention­nées au premier para­graphe.

    Je vous remer­cie de me faire parve­nir votre réponse dans les meilleurs délais et au plus tard dans un délai d’un mois à comp­ter de la récep­tion de ma demande (article 12.3 du RGPD).


    Cordia­le­ment,
    — 
    [Prénom Nom]

    Je laisse le SPAM initial en cita­tion en dessous histoire d’avoir une réfé­rence et qu’on ne puisse pas me dire « ce n’est pas nous » ou « on n’a rien ».

    Autre astuce : Ne *pas* deman­der la suppres­sion des données. Pas à cette étape, sinon les petits malins ou ceux qui liront trop vite suppri­me­ront les données ou l’abon­ne­ment à la liste de diffu­sion et pour­ront ensuite dire « ah ben on ne peut pas vous donner plus d’in­for­ma­tions, c’est supprimé désor­mais ».

    Note : On me signale aussi la version d’Ae­ris, plus formelle.

  • Recom­man­da­tions de sauve­garde

    Je vois encore des gens parler sauve­garde et le sujet est trop souvent mal maîtrisé alors j’ajoute quelques notes à mes billets précé­dents :

    Un disque dur ne suffit pas. Ça peut durer plusieurs décen­nies mais aussi tomber en panne dès demain. Une surten­sion élec­trique ou un peu de pous­sière mal placée sur la carte mère du PC peuvent suffire. Un DVD ou une clef USB ont une espé­rance de vie encore plus faible.

    Deux disques en RAID ne suffisent pas. Une surten­sion peut tout à fait les griller en même temps. Le moindre crash de l’OS ou la moindre mauvaise mani­pu­la­tion humaine qui corrom­prait les données risque de toutes façons d’im­pac­ter les deux disques à la fois (et des mauvaises mani­pu­la­tions vous en ferez, la seule ques­tion est quand).

    Un logi­ciel de synchro­ni­sa­tion dans le cloud ne suffit pas non plus. La moindre mauvaise mani­pu­la­tion (et vous en ferez une) y serait auto­ma­tique­ment répliquée. Il vous faut un histo­rique de vos fichiers pour pouvoir reve­nir en arrière d’au moins deux versions.

    Un NAS à la maison avec un logi­ciel de sauve­garde auto­ma­tique c’est déjà mieux (mais vous ne serez couverts que pour les données qui sont à la fois sur votre poste de travail et sur le NAS, celles qui ne sont que sur le second auront un problème de sauve­garde). Main­te­nant il suffit d’un dégât des eaux, un incen­die ou un cambrio­lage pour tout perdre d’un coup.

    Un disque externe stocké chez un ami ou au boulot, que vous rame­nez régu­liè­re­ment chez vous pour faire vos sauve­gardes et débran­chez ensuite ne suffit pas, même si vous avez l’auto-disci­pline suffi­sante pour bien le faire très régu­liè­re­ment. Un jour vous ferez une mauvaise mani­pu­la­tion qui risque de suppri­mer les données sur les deux supports à la fois (« oups, j’ai copié mes anciennes données vers les nouvelles par erreur »), et vous risquez toujours tout à chaque fois que vous le rame­nez chez vous.


    Il vous faut une sauve­garde sur un second support, avec histo­rique, dans un lieu tiers… et bannir toute solu­tion maison ainsi que toute opéra­tion manuelle, qui forcé­ment faillira un jour.

    Il y a de superbes solu­tions en ligne. Ça coute cher mais on branche et on ne s’oc­cupe plus de rien. Pour le même prix ces sauve­gardes sont chif­frées donc la confi­den­tia­lité est garan­tie même si les données fuitent un jour.

    L’al­ter­na­tive maison c’est la sauve­garde par inter­net sur un NAS hébergé ailleurs (ami, bureau, famille) et qui sait garder un histo­rique des anciennes versions. C’est moins cher sur le long terme mais plus cher en coût initial. Ça demande un peu de main­te­nance et ça pose d’autres problèmes (un NAS auto-géré ouvert sur inter­net c’est un problème de sécu­rité poten­tiel si vos données sont confi­den­tielles). C’est encore mieux si le NAS sait chif­frer les données lui aussi (histoire qu’un cambrio­leur n’ac­cède pas aux données confi­den­tielles).

    Les plus para­nos auront les deux, un NAS (local ou distant) et une solu­tion en ligne par dessus. Cein­ture et bretelle mais la solu­tion en ligne suffit géné­ra­le­ment. C’est opéré par des profes­sion­nels qui gère­ront ça vingt mille fois mieux que je ne le ferais avec mon NAS, autant sur la péren­nité, sur la fiabi­lité que sur la sécu­rité.

    La solu­tion du pauvre ce sont deux disques externes. Vous en rame­nez régu­liè­re­ment un à la maison pour y faire une sauve­garde avec un logi­ciel qui garde l’his­to­rique. À tout moment il y en a un à distance au cas où il y ait un inci­dent lors de la mani­pu­la­tion de l’autre (fausse manip humaine, cambrio­lage, incen­die, je ne sais quoi). Ça ne coûte pas cher mais ça demande de l’or­ga­ni­sa­tion, une grande disci­pline pour faire les sauve­gardes régu­liè­re­ment, de l’em­mer­de­ment pour trans­por­ter les disques, et du temps à perdre.

  • Aujourd’­hui c’est de nouveau backup-day !

    Crash­plan Home c’est fini. Bon, c’est fini depuis déjà un an mais j’avais renou­velé juste avant leur annonce, alors j’ai tenu plus long­temps que les autres.

    J’ai eu beau cher­cher, je n’ai rien trouvé d’aussi simple et effi­cace dans cette gamme de prix pour sauve­gar­der mes deux postes de travail et mon NAS. Je vais recon­duire avec leur offre small busi­ness. C’est trop cher mais comme ils font une réduc­tion de 75% la première année, ça va me donner encore un an pour réflé­chir à autre chose.

    Il reste que tout est basé sur un vieux disque plateau chez moi et cet outil en ligne. Il suffit qu’un des deux tombe et que je fasse une mauvaise manip pour que…

    Je me senti­rais plus confiant avec une troi­sième patte, quitte à ce qu’elle ne soit pas tenue à jour aussi fréquem­ment que perti­nent.

    On trouve des disques de 4 To à 120 €, et on doit même trou­ver du 12 To à un prix au Go pas si diffé­rent. J’ai toute­fois du mal à me dire qu’il faut une grosse boite, une alimen­ta­tion externe, et un stockage avec des pièces méca­niques fragiles.

    En SSD on passe très rapi­de­ment à 250 € le To. Ouch. Quitte à aller par là, je me pose très sérieu­se­ment la ques­tion d’une collec­tion de cartes microSD de 128 Go. Si le prix n’était pas déli­rant (il faut encore doubler par rapport au SSD), j’avoue que ce serait tentant : Dura­bi­lité correcte, stockage super facile, ne prend pas de place, ne craint pas grand chose. On peut même assez faci­le­ment les mettre à la cave dans un petit cais­son étanche et ne plus rien craindre. Hum… ça me tente.

    Et vous, vous utili­sez quoi ?

  • Fire­fox, « anonyme par défaut »

    J’ai­me­rais avoir un Fire­fox confi­guré en « anonyme par défaut ». Ça veut dire deux choses :

    1. Un site ne doit pas pouvoir parta­ger ou croi­ser les données avec un autre ;
    2. Un site ne doit pas pouvoir faire persis­ter des données plus long­temps que la session en cours.

    Si je veux garder une authen­ti­fi­ca­tion perma­nente ou auto­ri­ser des croi­se­ments (par exemple pour des SSO), c’est à moi de le deman­der expli­ci­te­ment.

    Ça pour­rait être fait par une double préfé­rence liée à chaque domaine, quelque chose du type « auto­ri­ser le domaine X à stocker des données persis­tantes dans ce contexte » et « ne pas isoler le domaine X en fonc­tion de l’ori­gine de la page prin­ci­pale ».


    Un site ne doit pas pouvoir parta­ger ou croi­ser les données avec un autre

    Ce premier point est rela­ti­ve­ment bien couvert. L’ex­ten­sion first party isola­tion fait exac­te­ment ça. En gros tout le stockage (cookies, local­sto­rage, indexeddb) est segmenté par l’ori­gine de la page prin­ci­pale dans l’on­glet.

    Le compo­sant Face­book inclut dans les pages de LeMonde ne parta­gera aucune données avec celui inclut dans les pages du Figaro. Il restera l’adresse IP et diverses tech­niques de finger­prin­ting, mais ça va un peu limi­ter.

    Je navigue avec depuis des mois, plutôt avec succès. Il y a encore du boulot. Il faut le désac­ti­ver tempo­rai­re­ment pour faire la confi­gu­ra­tion initiale de Pocket dans Fire­fox, ou pour le SSO « se connec­ter avec google » de quelques sites (pas tous, d’autres fontionnent bien) mais globa­le­ment ça passe très bien.

    Une fois corri­gées les anoma­lies et ajou­tée une façon de désac­ti­ver l’iso­la­tion site par site, ça sera parfait.


    Un site ne doit pas pouvoir faire persis­ter des données plus long­temps que la session en cours

    Ce second point est plus compliqué.

    J’ai tenté initia­le­ment d’uti­li­ser les conte­neurs de Fire­fox pour ça mais tout ce que je peux faire c’est isoler des sites les uns des autres. Au final je me retrouve avec un conte­neur par défaut qui contient la majo­rité du trafic et qui conti­nue à garder mes traces de session en session.

    Il y a peu j’ai trouvé l’ex­ten­sion tempo­rary contai­ners. L’idée c’est que, par défaut, le navi­ga­teur charge un nouveau conte­neur tempo­raire dédié à chaque fois qu’on navigue vers un nouveau domaine. Ce conte­neur et ses données sont détruits dès qu’on ferme l’on­glet.

    Globa­le­ment ça fonc­tionne mais il y a quelques soucis de perfor­mance ressen­tie (au moins des ferme­ture/réou­ver­ture visibles d’on­glet lors des navi­ga­tions) et si on affecte un site à un conte­neur fixe pour éviter de se retrou­ver à chaque fois sur une page non authen­ti­fiée, on perd la capa­cité de l’uti­li­ser en paral­lèle dans plusieurs conte­neurs diffé­rents.

    J’ai globa­le­ment l’im­pres­sion d’abu­ser des conte­neurs pour quelque chose qui n’est pas fait pour.

    L’ex­ten­sion cookie auto­de­lete a une autre approche. On garde le fonc­tion­ne­ment normal des conte­neurs mais, par défaut, l’ex­ten­sion supprime les cookies d’un site dès qu’on ferme tous les onglets qui y mènent. Charge à l’uti­li­sa­teur de faire des excep­tions expli­cites site par site. Globa­le­ment ça fait le job mais ça n’ef­face ni le local­sto­rage ni l’in­dexeddb, ne parlons même pas du tracking par cache HTTP.

    Je trouve ça dommage. Intui­ti­ve­ment j’au­rais pensé que suppri­mer des données était plus facile à faire pour le navi­ga­teur que créer une isola­tion supplé­men­taire entre les sites.

    Suis-je le seul à cher­cher un tel niveau d’iso­la­tion ?

  • 7 milliards et demi

    Github est un concen­tré de tech­no­lo­gies. On ne refera pas Github de zéro avec juste une poignée de déve­lop­peurs dans un garage.

    Mais… 7 milliards et demi de dollars. Vous comp­tez comme vous voulez mais la tech­no­lo­gie seule en vaut diffi­ci­le­ment un centième. Multi­pliez par 10 parce que c’est prêt et qu’on évite du risque et du délai, il y aura encore au moins un zéro de trop. Les divi­dendes à venir ne valent pas cette diffé­rence.

    Ce que Micro­soft achète ce n’est pas Github, le logi­ciel et les équipes, c’est vous, clients. Vous et vos projets. On vient de vous vendre comme une marchan­dise. Vous n’en avez même pas touché des miettes.

    Moi non plus.

  • Gérer son pota­ger

    Propo­ser de l’auto-héber­ge­ment c’est comme recom­man­der aux gens de faire leur propre pota­ger quand ils te parlent des problèmes de la chaîne de distri­bu­tion alimen­taire (*).


    Oui l’auto-suffi­sance alimen­taire est un énorme pas dans le bon sens. Non tout le monde n’a pas les connais­sances ou les compé­tences pour main­te­nir son pota­ger, les moyens finan­ciers d’avoir un terrain et le maté­riel perti­nent, ou simple­ment le temps à y consa­crer.

    Même quand on a tout ça, on peut vite se retrou­ver avec une récolte à vide, ou obligé de déver­ser plus de pesti­cide et plus d’eau que ne le ferait une culture inten­sive.

    Bref, c’est super, mais ce n’est pas la solu­tion magique à tout et pour tout le monde. Pas ainsi.

    Certains feront leur pota­ger, mais plus par plai­sir ou convic­tion que comme source d’ap­pro­vi­sion­ne­ment. D’autres iront dans des AMAP, dans des circuits courts, au super­ma­ché bio ou soli­daire, à la supé­rette du coin, ou même au super­mar­ché en faisant atten­tion à ce qu’ils achètent, en fonc­tion de leurs moyens, de leurs contraintes et de leurs besoins.


    L’auto-héber­ge­ment c’est pareil. Il vous faut un maté­riel adapté, une connexion Inter­net stable et suffi­sante, des compé­tences non négli­geables, et surtout pas mal de temps et d’at­ten­tion.

    Main­te­nir un service en fonc­tion­ne­ment n’est qu’une petite partie du problème. Combien de ceux à qui on aura conseillé l’auto-héber­ge­ment vont se retrou­ver sans sauve­garde fonc­tion­nelle au premier inci­dent ? Combien vont faire une erreur et perdre leurs données ? Combien auront une qualité de service accep­table ? Et surtout, combien vont gérer correc­te­ment la sécu­rité ?

    Genma parle d’éli­tisme. C’est un peu vrai mais il n’y a pas que ça. Même pour quelqu’un du métier, qui a les moyens finan­ciers et du temps à y consa­crer, une sécu­rité correcte demande désor­mais un inves­tis­se­ment déme­suré pour la plupart des besoins person­nels.


    Je ne dis pas que c’est forcé­ment une mauvaise idée. La centra­li­sa­tion et la dépen­dance sont de vrais enjeux, la vie privée aussi, mais ne résu­mons pas ça à l’auto-héber­ge­ment.

    Faites-le pour vous amuser, pour apprendre, pour tester, pour bidouiller. Faites-le si vous en avez envie, tout simple­ment. Aidez ceux qui veulent le faire.

    Arrê­tez par contre d’as­sé­ner ça comme une solu­tion facile et univer­selle. Arrê­tez de faire culpa­bi­li­ser ceux qui délèguent et font confiance à un pres­ta­taire. Vous ne rendez service à personne, pas même à vos amis et votre famille à qui vous êtes en train de dire « mais si, sois dépen­dant de moi et mets-moi admi­nis­tra­teur sur toutes tes données, tu verras ce sera génial ».


    (*) L’ana­lo­gie n’est pas de moi, je l’ai croi­sée récem­ment chez Clochix, merci à lui.

    Mise à jour : Depuis, l’ex­cellent Aeris a parlé de ça en détail et avec bien plus de brio que moi. Allez lire.