Parce que les bonnes astuces nécessitent d’être partagées : Pour récupérer en local le contenu des « pull request » de github
Catégorie : Geek
-
De l’importance des métadonnées
Sérieusement, éditeurs de contenus numériques : Travaillez les métadonnées embarquées dans les fichiers !
Trop souvent ces métadonnées sont partielles, mal remplies, et peu qualitatives. Parfois ce sont même des informations essentielles qui manquent comme la pochette de l’album pour un fichier de musique ou le thème pour un livre.
Éditeurs, ces métadonnées font partie de votre travail, de ce qu’on attend de vous, voire de ce qu’on achète. Vendre du numérique ce n’est pas comme vendre des objets physiques en retirant l’aspect matériel. Il y a des attentes différentes dues aux usages qui eux aussi sont différents. Les métadonnées en sont une : C’est ce qui permet de classer, retrouver, et globalement profiter d’un contenu. C’est un réel critère de choix entre différents contenus à acheter, et une cause très fréquente pour ne pas acheter de nouveau chez un éditeur ou dans collection.
Personnellement j’en ai marre de remplir après coup ces métadonnées après achat. J’ai plusieurs fois reporté des achats sur cette raison mais désormais ce sera explicite : Je n’achèterai plus chez ceux qui ne font pas un travail au minimum « correct ».
Musique
Pour les fichiers musicaux, « correct » c’est au minimum la liste de tous les auteurs avec nom et prénom, le compositeur, l’année de publication de la musique (pas celle du fichier numérique), l’album dont est extrait le titre, le numéro de piste sur cet album, une illustration 500×500 pixels minimum, la langue des paroles et le genre de musique. Bien entendu ces données sont inscrites avec la bonne casse (pas tout en majuscule et des accents si nécessaires sur les majuscules) et de façon homogène.
Ceux que je qualifie de « bons » ont une qualification très précise du genre (par exemple : quel type de jazz ?), une illustration très haute définition, le texte complet des paroles, voir le tempo.
Livres et textes
Pour les textes j’attends aussi, en plus des auteurs et du titre (souvent mal codés), le nom de l’éditeur, le nom de la série et le numéro dans la série, un résumé ou accroche, la langue, la date de publication du livre original (tous formats confondus) ou de son écriture et l’EAN du livre. L’illustration de couverture doit être au grand minimum de 800×600 pixels et ici la qualification précise du genre est indispensable (« fantasy » ne suffit pas, il peut y avoir une dizaine de genres de fantasy, et agréger science-fiction fantasy et fantastique est une faute impardonnable).
Pour le livre tout ce qui précède est indispensable, sans exception. Les bonus qualité se font sur le résumé, les biographies et la table des matières.
Et d’autres
Je suis certain que chacun a sa vision de l’indispensable, mais peu importe. Éditeurs, remplir ces métadonnées de façon complète et hautement qualitative est votre travail. C’est presque le minimum en fait. J’accepte même quelques erreurs légères dans le contenu si au moins les métadonnées me permettent de l’exploiter pleinement. Le numérique c’est aussi ça.
Vous vous y mettez quand ?
-
Le MacBook Air de 1994
Ça n’a l’air de rien, mais avec cette vidéo, qui n’est pas un MacBook Air de 1994, on ne peut que voir une copie totale du concept et de l’approche. Ça permet de remettre quelques procès récents en perspective.
-
Livre collaboratif, c’est lancé
Voilà, c’est fait. J’ai commencé la retranscription de mon livre sur la performance des sites web vers github pour en faire un projet collaboratif.
Vous retrouverez l’avant-propos et le premier chapitre d’introduction. Pour la suite je vais avoir besoin de vous comme promis :
- Vous avez un bon français écrit ? Nous avons besoin de relecture pour corriger les rares fautes, pour améliorer les formulations, retirer les répétitions, réaliser un meilleur découpage des paragraphes et globalement relever le niveau de français.
- Vous n’avez pas peu de faire un peu de code simple ? Nous avons besoin de personnes pour retranscrire les fichiers sources OpenDocument en fichiers Markdown avec illustrations jointes. Nous avons aussi besoin de gens pour vérifier et corriger la production de ces fichiers Markdown, améliorer la qualité des illustrations et créer des scripts d’automatisation.
- Vous vous y connaissez un peu ? Il faut mettre à jour les contenus, ajouter les dernières découvertes, documenter les améliorations des navigateurs, enrichir le contenu, et compléter les chapitres manquants.
Pour l’heure c’est assez simple : Si vous voulez améliorer l’existant il suffit de faire un fork sous github, modifier ce qui vous semble à changer et envoyer une pull request. L’investissement est quasi nul.
Si vous voulez aider à compléter l’existant le mieux est de m’écrire ou commenter ci-dessous avec le temps dont vous disposez pour que je vous envoie une partie du document source. Pour référence j’ai fait le chapitre 1 en environ 3 heures, mais rien n’interdit de prendre une partie plus petite. L’idée est de faire des aller-retour sur 2 à 3 jours tout au plus, en préférant beaucoup de petits pas à un très gros. Même une heure de travail permet de faire avancer les choses.
-
Prison dorée, ce n’est que le début : mac os x
Hier j’ai été « bloqué » par une application Mac qui refusait de se lancer. L’appli ne vient pas de l’app store et n’était pas signée => refus du Mac.
Tous les geeks m’ont répondu « il y a une option de configuration dans les préférences système, onglet sécurité » pour réautoriser les applications non validées par Apple. C’est à mon avis passer totalement à côté du problème. L’option de configuration, la plupart des gens n’iront pas la trouver, n’oseront pas la toucher, ou simplement sortiront avec un « installer cette application c’est compliqué ».
On est simplement en train de créer des applications de première classe, validées, mises en avant, et des applications de seconde ou troisième classe, autorisées uniquement explicitement en allant tripatouiller les préférences systèmes.
Vous ne me croyez pas ? Moins de 24 h après je tombe sur un article où l’auteur a tenté une installation d’un logiciel largement diffusé et échoué à cause de la restriction « app store ». Non, il n’a pas tripatouillé les configurations, il est passé au logiciel concurrent (lire le paragraphe juste sous la première illustration) :
Le temps de ces réflexions, le logiciel Kobo est téléchargé, en version Mac, mais une mauvaise surprise nous attend après l’installation. Apple refuse d’ouvrir l’application, parce qu’elle n’a pas été téléchargée depuis l’App Store, et à ce titre, la machine ne pourra pas la lancer. Rien à voir avec Fnac, Kobo, ni l’éditeur, se dit-on, mais tout de même… Direction l’App Store, pour tenter de poursuivre, et nouveaux déboires : pas d’application Kobo. Fin des opérations de ce côté. De quoi commencer à perdre patience, une fois encore. De son côté, ADE a correctement fait son travail, et ouvert notre lien de téléchargement sans peine. Et le document est ouvert.
Nombre d’applications vont passer par l’app store, et leurs auteurs ont bien raison, mais ça ne fera qu’augmenter le fossé entre les deux classes d’application, isolant encore plus celles qui n’y sont pas.
Le danger c’est que cela donne un pouvoir immense à celui qui contrôle l’app store et qu’Apple, et que la pomme pose des conditions franchement non neutres. Il est tout à fait possible que l’application dont parle l’article n’ait pas le droit d’être vendue sur l’app store sans retirer plusieurs fonctions, dont tout ce qui est vente en direct.
Alors oui, « yaka changer la configuration », et quand notre liberté sera de ne diffuser que des applications validées et conformes aux intérêts commerciaux d’Apple ou de subir une mise au banc avec procédure d’installation complexe et étiquette « application tierce je-serais-vous-je-n-y-toucherais-pas », il sera trop tard.
-
Cherche routeur
Je cherche un petit routeur. Avant de répondre avec vos choix habituels, voici mon besoin :
- J’ai besoin de deux ports ethernet qui redirigeront vers du WAN, le reste vers du LAN. Préférablement plus de deux ports LAN mais ce n’est pas primordial.
- Ces deux ports diffusent actuellement des annonces DHCP. Je ne suis pas certain de pouvoir couper les deux donc il faut que le routeur puisse filtrer ces annonces pour ne pas les laisser diffuser sur le reste du réseau.
- De la part des ports ethernet locaux, certains accès doivent être routés préférablement vers un port WAN ou un autre suivant la plage IP:port destination (et si possible en fonction de l’IP source, mais ce n’est pas nécessaire)
- J’aimerai un fail-over : quand la connexion semble HS sur un des ports WAN, que les accès soient alors tous routés vers l’autre port WAN
- Sur les ports locaux il me faudrait au moins deux réseaux distincts qui ne puissent pas communiquer entre eux
Ce peut être un petit routeur matériel, ou un boitier linux pas cher sur lequel faire tourner une distribution bsd ou linux dédiée que vous connaissez. Je suis ouvert à tout.
Je trouve des choses, mais à des prix plus élevés que mon budget. Que connaissez-vous qui puisse répondre à ce besoin sans avoir des prix monstrueux ?
-
Spam en ROT13
On dira ce qu’on veut mais pour le coup ÇA c’est du marketing cible (pour les geeks). Même si c’est du spam, c’est tellement unique que je ne peux pas m’empêcher de le partager :
To: « Get Vigara-Today » <A5BA548@xxxxxx.xxx>
Subject: Re: SALE!
From: rot13@rot13.comArj fnyr cevprf:
—————-Yrigven … 1.25$
Pvynvf … 1.14$
Ivtnen … 0.21$
Srznyr Cnpx … 1.20$
Snzvyl Cnpx … 2.12$
Cebsrffvbany Cnpx … 3.29$
—————–
Sbyybj fcrpvny yvax:
uggc://sHP.hgvbazrqvp.eh/
Pour ceux qui n’ont pas fait attention à l’expéditeur : ROT13. Le plus étonnant est que s’ils passent du temps à envoyer ça, c’est que ça doit fonctionner.
-
J’ai tout compris, je quitte Free
Je quitte Free.fr. Sans regrets.
La qualité n’était simplement plus au rendez-vous puisque la box désynchronise plus de 20 fois par jour en ce moment. Ça dure depuis un bon mois à vue de nez et ça va crescendo.
J’aurai certes pu appeler le support technique. Peut être que ça aurait résolu la situation, peut être pas. Disons que j’aurai pu tenter mais même si on me dit que ça vraiment changé, mes expériences passées sur le chat et la hotline étaient tellement mauvaises je suis peu attiré par l’idée.
Ajouté à ça les problèmes récurrents et assumés par la direction Free.fr de mauvais débit vers Youtube et quelques autres autres routes à fort trafic, l’accumulation de frustration devenait importante ; assez importante pour envisager partir chez un concurrent.
L’herbe est rarement plus verte ailleurs mais je suis éligible depuis à la fibre SFR. Un vrai débit montant, plus de problèmes vers Youtube, et jamais plus de désychronisations ADSL. Ça marche, je signe.
Pour la petite histoire, mon FAI actuel n’aurait pas eu un mauvais historique de service client et aurait pris plus au sérieux son activité principale qui est d’offrir de la connectivité (et non des services annexes), je n’aurai probablement pas sauté le pas. À bon entendeur…
-
Mise à jour vers Mountain Lion – clavier US
Au cas où ça serve à d’autres, lors de la mise à jour Mac vers Mountain Lion :
Il y a un redémarrage préalable à l’installation et un redémarrage après l’installation. Chacun vous demande de vous authentifier pour continuer.
Lors du premier, si vous avez chiffré votre disque avec FileVault, il vous faudra saisir votre mot de passe comme si vous aviez un clavier américain (lettre « a » et « q » inversées par exemple).
Rien ne l’indique, si ce n’est que les invites sont en anglais, ce qui peut mettre la puce à l’oreille. Le savoir peut vous épargner la petite frayeur du mot de passe qui ne fonctionne plus, d’autant qu’avec un disque chiffré la perte de mot de passe implique la perte des données et un reformatage complet nécessaire.
Je plains les vrais informaticiens qui auront mis des caractères spéciaux dans leurs mots de passe et qui devront retrouver la position sur un clavier US Mac. Je plains les non-informaticiens qui n’auront franchement aucune chance de comprendre ce qui leur arrive et pour qui l’idée de taper avec un agencement américain sur un clavier français n’a aucun sens.
-
Ce week-end c’était Backup day
On oublie toujours les backup, et même quand on y pense habituellement les incidents arrivent toujours au moment des rares oublis.
Au niveau personne, la disparition de mes données c’est la perte de 10 ans de photos, de tout mon carnet d’adresse avec téléphones, adresses et email, de mes documents, de mes 10 ans d’archives mail, de… à peu près tout en fait vu que je vis en numérique depuis 2001. La seule chose qui reste en papier c’est l’administratif et les factures… et même ça j’ai caressé plus d’une fois l’envie de numériser puis archiver en vrac dans un carton à la date de numérisation. Bref, si je perds les données c’est un peu comme si d’un coup je supprimais tout ce que j’ai de pertinent (c’est à dire tout ce qui n’est pas matériel).
De quand date votre dernier backup ? Mais plus que ça, quelle est votre stratégie ? Quelle niveau de sécurité attendez-vous ?
Stratégie
Il vous faut deux backup, dont au moins un non synchrone ou avec historique, dont un hors site, avec quelque chose qui vous alerte dès que l’un des deux devient inutilisable. Or cela, point de salut.
Au fur et à mesure je me suis fixé sur la combinaison suivante : Au quotidien (c’est à dire quand j’y pense) tout est archivé sur un NAS avec deux disques en RAID. De temps en temps, une à deux fois par an, je grille tout ce qui est pertinent sur des disques optiques. Ces derniers sont stockés hors site (chez les parents par exemple) au cas où ce qui est chez moi soit irrécupérable.
Le NAS c’est un DS207+ de Synology avec des disques de 1 To. Je n’ai jamais eu l’occasion de regretter et Synology a un suivi exceptionnel de son matériel : 4 ans après il y a encore des mises à jour alors qu’ils renouvellent leur gamme toutes les années. Le logiciel interne sait tout faire et l’accès root est possible pour ajouter ce qui manquerait.
Les disques optiques je suis passé d’années en années des CD au DVD, puis aux DVD DL et ce week end aux BD-R. Ça ne tient pas sur un seul disque mais la taille des répertoires grossit d’année en année et je me vois mal séparer ces unités en plusieurs. Cette année c’est le stockage des photos en RAW qui prends une place désastreuse. Il suffirait de trier et effacer ce qui n’a pas de sens, mais passer sur BD-R prend bien moins de temps :)
Le jour où j’aurai la bande passante montante nécessaire j’empilerai peut être des backup sur un stockage en ligne type crashplan ou une simple dedibox. Pour l’instant c’est assez inabordable avec ma connexion ADSL.
Quelques pistes d’attention
Une synchronisation n’est pas une sauvegarde
Dropbox ? Google Drive ? Gmail ? tout ça est à ranger dans la catégorie « synchronisation » et pas dans la catégorie « sauvegarde ». Si vous faites n’importe quoi ou si on vide votre compte, ça sera synchronisé d’un coup partout. Ce n’est pas purement hypothétique : ça arrive en vrai.
C’est vrai pour tout ce qui synchronise sans archivage. Si vous synchronisez votre NAS avec une Dedibox, que se passe-t-il si votre NAS est effacé ? Idem pour crashplan si vous n’achetez pas l’option qui active l’historique.
La synchronisation permet la haute disponibilité mais ça ne remplace pas un backup. Ce ne sont simplement pas les mêmes contraintes et les mêmes usages.
Un backup unique n’est pas suffisant
Vous avez un NAS avec un disque ? imaginez que demain il casse. Vous avez un NAS en RAID ? il ne vous servira à rien en cas de dégât des eaux, de dégât électrique majeur, de feu dans l’immeuble, ou simplement d’un cambriolage ou d’un méchant qui perce votre wifi ou votre mot de passe pour tout effacer.
Même si vous avez une totale confiance dans les serveurs redondés et sauvegardés de votre prestataire, les comptes gmail qui se vident c’est très rare mais c’est déjà arrivé. Tiens, imaginez aussi ceux qui avaient des données légales et bien placées avec un compte payant sur les serveurs redondés de megaupload… au revoir les backup. Le cas est extrême mais si la justice décide de saisir Crashplan, de bloquer Online.net ou d’interrompre Dropbox, vous n’aurez que vos yeux pour pleurer.
Deux sites distincts
Toujours avec les mêmes causes, même si vous avez bien deux backup, ils ne seront efficaces que s’ils sont sur deux sites différents. Un feu, un cambriolage, un choc électrique, ou un simple dégât des eaux risque de rendre inutilisable d’un coup vos deux backups. Point de salut : l’une des deux copies doit être hors site.
Ramener une copie au boulot, chez les parents ou chez des amis peut suffire. Pas besoin d’imaginer une architecture complexe.
DEUX MÉDIA DIFFÉRENTS
Pour des raisons similaires, je vous incite à prévoir deux solutions de backup différentes, avec des technologies différentes. En cas de défaillance imprévue, vous mettez toutes les chances de votre côté en espérant que l’autre type de média ne sera pas affecté. Pensez par exemple à ceux qui voyait dans le CD un support définitif et qui se sont retrouvés avec des disques inutilisables au bout de 5 à 10 ans ? En avoir deux copies n’a pas du aider beaucoup.
Cette règle n’est pas neuve, si vous mettez en route des RAID, la bonne pratique est d’avoir des disques de marques différentes ou au moins de modèle différents pour ne pas risquer qu’ils cassent à des dates proches (là aussi ce n’est pas hypothétique, ce sont des cas réels).
Quelques pistes
Dans la liste suivante il vous faut deux média différents, au moins un asynchrone ou avec historique, et au moins un hors site :
Fiabilité Hors site Asynchrone Historique Disque USB mauvaise partielle (*1) oui possible 2x disque USB bonne possible (*1) oui possible NAS simple mauvaise non au choix possible NAS RAID bonne (*2) non au choix possible Dropbox (synchro en ligne) bonne oui non possible Crashplan (backup en ligne) bonne possible non oui CD, DVD, BD-R bonne sur 2 à 5 ans possible oui oui Serveur en ligne au choix (raid ?) oui au choix au choix Bande moyenne possible (*1) oui oui (*1) Les disques USB et les bandes peuvent être mis hors site mais devront être amenés sur site pour les resynchroniser. C’est toujours à ce moment là qu’arrivent les problèmes, ou qu’on fait une mauvaise manipulation lors de la sauvegarde qui efface et la source et la destination. La solution est d’avoir un jeu d’au moins deux disques et de les amener sur site en alternance, ainsi on a toujours une copie sécurisée hors site quoi qu’il arrive.
(*2) Certains NAS RAID ne vous alertent pas (ou pas assez bien) quand un des deux disques est en rade. Du coup ça reste en rade jusqu’à ce que le second tombe aussi. Seuls ceux qui ont des alertes efficaces (c’est à dire qu’on ne peut pas ignorer même si on ne fait pas attention) sont à considérer comme ayant un RAID efficace.
N’oubliez pas que pour qu’une sauvegarde hors site par réseau soit efficace, il vous faut soit une bonne bande passante montante soit un volume de sauvegarde limité. Sauvegarder 100 Go par une ligne ADSL, même de bonne qualité, ça va vite ne pas être raisonnable. Vous ne profiterez réellement de Crashplan ou de ses concurrents qu’avec la fibre.
Enfin : Si vous laissez des sauvegardes hors site, et particulièrement si elles sont en ligne, les chiffrer n’est pas totalement inutile. Si voir vos données divulguées à des tiers pose problème, alors c’est même indispensable (et dans ce cas oubliez Dropbox).