Catégorie : Technique

  • Partage de fichiers en PME

    Comment parta­ger des fichiers au sein d’une PME d’une douzaine de personnes ?

    J’ai mis mes réflexions ci-dessous mais je suis preneur de recom­man­da­tions. J’ai du Mac, du Windows et du Linux, des postes fixes comme des portables (régu­liè­re­ment hors site).

    Un petit NAS

    Point parti­cu­lier : Il est diffi­cile d’ex­clure des vols dans les locaux, donc il faut que la NAS puisse chif­frer le système de fichier et synchro­ni­ser avec un service à distance.

    Je connais les Syno­logy, suivant la gamme on peut imagi­ner un DS213j et un disque unique synchro­nisé en rsync avec un serveur distant. C’est de l’ordre de 270€ mais ça me demande un disque en ligne donc empêche d’y mettre des To.

    On peut aussi imagi­ner un abon­ne­ment crash­plan, ce qui permet­trait de mettre un gros disque sans risquer de perte si jamais il dispa­rait. Pour ça il faut sauter sur le DS413 afin d’avoir les 1Go de mémoire néces­saires. On monte à 600€ plus 50€/an.

    On peut aussi imagi­ner un mini-PC avec un système d’ex­ploi­ta­tion dédié à un usage NAS, mais je n’ai aucun retour d’ex­pé­rience là dessus. Quelqu’un a déjà utilisé FreeNAS ou OpenMe­diaVault ? Au niveau prix, on risque de rester dans la même gamme que précé­dem­ment.

    Le défaut de ces solu­tions c’est qu’on va avoir des fichiers désyn­chro­ni­sés, des conflits parce que chacun édite dans son coin, des retours en arrière de version, etc. Par expé­rience c’est une horreur à gérer.

    Une synchro en ligne directe

    Comme de toutes façons il me faut une synchro en ligne, autant étudier la perti­nence que tout le monde synchro­nise ses fichiers en ligne avec un système type Drop­box. Ça permet d’évi­ter que chacun risque d’avoir une version non à jour sur son poste, ou au contraire que la version modi­fiée ne soit pas copiée sur le serveur central.

    Drop­box est clai­re­ment hors de prix pour le compte entre­prise. On parle de 1800 à 2000 € par an. Pour juste parta­ger des fichiers, ça me fait mal, quand bien même le service est très bon.

    Box.net propose 13€ par utili­sa­teur par mois, donc 2400€ par an pour 15. Ils offrent 1 To, ce qui est confor­table à condi­tion qu’un fichier partagé à 15 utili­sa­teur ne compte pas 15 fois. Ça a l’air plus complet que Drop­box mais pas moins cher.

    Wuala pour entre 10 et 15 personnes on parle de 600 € par an mais pour unique­ment 100 Go. Je ne sais même pas si un fichier partagé compte plusieurs fois.

    SugarSync n’est pas clair sur ses prix, ils parlent de 550$ par an pour 3 utili­sa­teurs et il faut passer par un commer­cial pour plus de 10 personnes. Comme je n’ai en plus aucun retour d’ex­pé­rien­ce…

    HubiC est disqua­li­fié, n’ayant pas de client Linux.

    On me dit d’ajou­ter Google Drive, qui peut effec­ti­ve­ment synchro­ni­ser sur disque des fichiers divers. Un compte pro c’est 50 € par mois, donc 750 € par an pour 15 utili­sa­teurs et 25 Go par utili­sa­teur.

  • Hyper­me­dia, quelques recherches pour JSON

    Je regarde un peu les implé­men­ta­tions hyper­me­dia pour une API. J’avoue que je pleure un peu. Qu’on soit clairs, JSON n’est pas adapté pour ça, sauf à construire des messages bien complexes à lire et à produire (ce qui tue un peu l’uti­lité de JSON). Main­te­nant si on veut garder JSON, voilà l’état de mes reflexions :

    — Ce billet est en évolu­tion constante, dernière mise à jour le 18 juin 2013 au matin —

    Déjà quelques specs liées :

    Et deux discus­sions à lire en amont (avec les commen­taires, pour les deux) :

    JSON API

    • Spec assez simple
    • Utilise URI Template
    • Réserve un terme trop géné­rique (links) pour les clefs de la racine JSON
    • Ne permet pas d’uti­li­ser des URI pour les types de rela­tion
    • Ne permet pas d’avoir plusieurs liens (de format diffé­rent par exemple) pour une même rela­tion
    • Le type de ressource ciblée par une rela­tion peut être spéci­fié (ce qui me parait super­flu : si on connait le sens de la rela­tion, on connait le type ciblé)
    • Impose JSON-PATCH

    HAL – Hyper­text Appli­ca­tion Language

    • Rendu assez moche (oui, c’est subjec­tif mais ça compte)
    • Gère des espaces de noms via Curie dans les liens et rela­tions
    • Utilise (option­nel­le­ment) les URI Template (mais ne précise pas où trou­ver les para­mètres)
    • Permet de préci­ser un profile pour quali­fier les attri­buts d’un objet (mais pas de mixer plusieurs voca­bu­laires)
    • Ne permet pas d’avoir plusieurs liens (de format diffé­rent par exemple) pour une même rela­tion
    • Beau­coup de biblio­thèques de code dans pas mal de langages, côté client et côté serveur
    • J’échoue complè­te­ment à sépa­rer ce une collec­tion ou un attri­but complexe et une ressource embarquée, donc à comprendre l’uti­lité de la clef _embed­ded
    • C’est en draft IETF

    JSON-LD

    • Semble être fait par des gens avec un esprit assez proche de RDF
    • Simple à lire, mais trop complète, trop complexe, risque d’être diffi­cile à implé­men­ter
    • Gère un des voca­bu­laire avec des URI pour quali­fier les liens, les clefs, etc. avec même des possi­bi­li­tés d’alias
    • Consi­dé­rant les indi­rec­tions possibles, trou­ver le lien avec une valeur spéci­fique de « rel » est une tâche assez complexe
    • Ne gère pas de template pour les liens, mais sait gérer les liens rela­tifs à une base décla­rée plus haut (ce qui compense un peu)
    • C’est en voie de stan­dar­di­sa­tion au W3C
    • On peut ajou­ter Hydra par dessus pour décrire les actions (petite présen­ta­tion)
    • Peu d’im­plé­men­ta­tions clientes (trouvé une PHP et un conver­tis­seur vers RDF en Ruby)

    Siren

    • Va plus loin que les autres, en décri­vant aussi les types d’ac­tions possibles sur la ressources décrite, les para­mètres pour les diffé­rentes actions, etc. (illu­sion de pouvoir coder un navi­ga­teur d’API géné­rique ?)
    • Pas de template pour les liens
    • Simple à comprendre et à relire (si on met de côté la partie « actions »)
    • Impose une enve­loppe, les clefs à la racine sont liées à Siren, pas à l’objet décrit
    • Pourquoi ici encore sépa­rer les enti­tés liées des proprié­tés ?

    Collec­tion/JSON

    Quand on pense avoir saturé, on se rend compte que ce n’est pas fini. J’ai donc trouvé Collec­tion+JSON après les autres. Il permet de défi­nit des gaba­rit d’at­tri­buts pour les ressources, ajoute les liens et les rôles des liens, la notion de collec­tion, et défi­nit les méca­nismes d’ajout/recherche.

    C’est fina­le­ment une de celes qui se concentrent le mieux sur la tâche fixée au départ, mais je ne suis pas certain d’être convaincu. Au moins on a évité la sur-ingé­nie­rie. C’est implé­men­table de bout en bout.

    Quelques pré-conclu­sions

    Certaines spéci­fi­ca­tions vont bien trop loin à mon goût, et pas toujours en sachant faire correc­te­ment la base (éviter les conflits de nommage, pouvoir utili­ser des URI pour le voca­bu­laire, voire des espaces de noms).

    Rien que les templates d’URI sont fina­le­ment inutiles. Ils permettent de grap­piller quelques octets en évitant de taper des liens complets, mais imposent de rédi­ger un code non négli­geable rien que pour recons­truire le lien final, et empêchent de copier un sous-objet en le consi­dé­rant comme auto­nome (il ne l’est pas, le template pour son URL est dans l’objet parent).

    Alors parler de décrire les actions et les inter­ac­tions possibles avec chaque objet… En voulant trop en faire on reporte beau­coup de complexité sur le client. On est parfois en train de faire des clients très complexes pour éviter de gérer des infor­ma­tions simples et qu’on va proba­ble­ment de toutes façons coder en dur quelque part. Ça en devient contre-produc­tif. De ce côté j’ap­pré­cie la peti­tesse de JSON-API.

    J’ai encore l’avis qu’i­ma­gi­ner un client HATEOAS complet et géné­rique est illu­soire. J’ai juste besoin d’at­ta­cher quelques méta­don­nées comme des liens, des rôles aux liens, et éven­tuel­le­ment un voca­bu­laire pour les types de données.

    Et puis, sérieu­se­ment, si c’est pour que le résul­tat ne soit plus éditable agréa­ble­ment et présente des struc­tures non natu­relles, quel est l’in­té­rêt d’être passé à JSON ?

    XML, ou même HTML avec des micro­data/formats est défi­ni­ti­ve­ment plus adapté que JSON pour ce que je cherche à faire. À JSON il manque au moins un moyen d’at­ta­cher des méta­don­nées à une clef/valeur (par exemple la notion d’at­tri­but sur les nœuds XML/HTML). Avec ça nous pour­rions faire un joli format, sans ça ça restera bien moche et peu pratique.

    Le problème c’est que déve­lop­per un client qui fouille des données HTML avec une struc­ture lâche à base de micro­data/formats, c’est aussi assez complexe à gérer. Reste le XML « à la main » mais si si je veux que mon API soit utili­sée, je crains que JSON ne soit le seul choix prag­ma­tique.

    Entre les diffé­rentes spéci­fi­ca­tions

    Mon cœur balance entre JSON-API pour sa simpli­cité (mais réser­ver le terme « links » me semble juste une aber­ra­tion), HAL parce qu’il semble de loin (mais ce « _embed­ded » me gêne toujours, et faire un « _links »: { « self »: { « href »: « xxxxxx » } } juste pour donner le lien du sous-objet courant me inuti­le­ment lourd), et JSON-LD parce que ça ressemble assez fort à la façon dont je pense et que ça semble permettre tout ce que je peux imagi­ner d’in­tel­li­gent (mais implé­men­ter la spec complè­te­ment risque d’être fran­che­ment diffi­cile).

    Dans une précé­dente version de ce billet j’ai tenté un subset de JSON-LD où n’im­porte quel objet peut conte­nir :

    • un attri­but (facul­ta­tif) @id, qui est le lien iden­ti­fiant l’objet
    • un attri­but (facul­ta­tif) @type, qui défi­nit l’URL du type de l’objet (par exemple un type de schema.org) et poten­tiel­le­ment le sens des sous-clefs ou sous-liens.
    • un sous-objet (facul­ta­tif) @con­text, qui contient les diffé­rents préfixes et adresses utili­sables pour les diffé­rentes clefs de l’objet (afin de pouvoir mixer plusieurs voca­bu­laires sans risquer de conflits de noms et de sens).
    • un sous-objet (facul­ta­tif) @rel, inexis­tant dans JSON-LD, qui pointe les diffé­rents objets liés par leur rôle (attri­but « rel » habi­tuel) pour les retrou­ver faci­le­ment (il y a trop d’in­di­rec­tions pour ça dans JSON-LD)

    Mais je n’aime pas réin­ven­ter la roue, et aussi moche soit-il, HAL contient peut être le prin­ci­pal. Entre une spéci­fi­ca­tion géniale mais trop complexe et sans implé­men­ta­tion cliente, et une spéci­fi­ca­tion plus simple, moche mais bour­rée d’im­plé­men­ta­tions, j’ai du mal à ne pas recom­man­der la seconde. J’ai quand même toujours un peu de mal à voir comment me servir utile­ment du _embed­ded.

  • Éton­nant l’es­pion­nage, vrai­ment ?

    Ces jours ci on apprend que la NSA aurait un accès sur les données de Google, Apple, Yahoo, Micro­soft, Face­book et d’autres via un projet nommé PRISM.

    Je trouve très hypo­crite tous ces gens qui se disent éton­nés et d’un coup scan­da­li­sés.

    Qui n’a pas entendu parler d’Eche­lon ? Même Jean-Pierre Pernot a du en parler à l’époque. Quel infor­ma­ti­cien un peu âgé et travaillant dans les réseaux n’a pas entendu parler de Carni­vore ? Quel geek n’a pas entendu parler de la pièce 614A utili­sée par la NSA au milieu de AT&T ? Quel infor­ma­ti­cien de plus de 30 ans n’a pas entendu parler de la polé­mique sur la clef NSA dans Micro­soft Windows ?

    Que les USA fouillent dans les commu­ni­ca­tions en ligne, ce n’est même plus un sujet. D’ailleurs les autres pays non plus. On peut parler du Great Fire­wall of China, mais aussi de Amesys en Libye, la Suède, la Suisse, et bien entendu la France. En fait quasi­ment tous les pays espionnent les commu­ni­ca­tions en ligne à leur niveau. Notre pays est même à la pointe sur ce genre d’outils d’in­ter­cep­tion à l’échelle de pays entiers.

    L’in­ter­cep­tion des lignes télé­pho­niques est main­te­nant presque un outil du passé. Qui croit vrai­ment que les États n’ont pas fait évoluer leurs outils ? Aujourd’­hui les polices et agences de rensei­gne­ment ont très offi­ciel­le­ment des batte­ries de virus et autres enre­gis­treurs de frappe. Il y a même des lois pour cadrer tout ça (au moins aux USA, en France et en Alle­magne, mais proba­ble­ment aussi partout ailleurs).

    Bref, oui c’est grave, oui il faut lutter, mais faire semblant de décou­vrir que les données privées sont proba­ble­ment inter­cep­tées, c’est juste hypo­crite. La seule chose qui change aujourd’­hui c’est que nous avons un nom et des éléments pour poser des ques­tions formelles.

  • À quoi ça sert

    Quand vous aurez tous vos conte­nus sur Amazon, toute votre commu­ni­ca­tion sur Google et toutes vos rela­tions sur Face­book, et que deux ans après l’un des trois ou les trois vous dit « vous signez ici ou vous aban­don­nez tout ce que vous avez », il sera un peu tard.

    Ce scéna­rio n’est même plus de la prédic­tion, c’est le présent et ça a déjà commencé. Le billet précé­dent sur la messa­ge­rie instan­ta­née n’est qu’une anec­dote, mais qui fait partie d’un mouve­ment de fond bien puis­sant.

    Ce qui m’agace le plus c’est que les gens laissent faire, et même semblent ne pas s’en préoc­cu­per.

    Parfois j’ai presque envie de lais­ser tomber le web à tel point je me dis « c’est foutu les gens s’en moquent ».

    J’ai l’air bien beau à résis­ter en contrô­lant mes adresses et mes iden­ti­fiants avec mon nom de domaine, voire mes services sur mon serveur perso. C’est utile pour moi mais ce n’est acces­sible qu’à une mino­rité. Mener le combat seul ne sert à rien : Si vous vous êtes tous vendus, alors pour conti­nuer à vivre en rela­tion avec vous je n’ai d’autre choix que de faire de pareil.

    Seuls nous n’avons quasi­ment aucune chance de propo­ser une alter­na­tive, pour­tant c’est juste essen­tiel pour nous, notre avenir, et celui de nos enfants. Si ça vous parait encore être une « grande phrase », c’est que vous ne réali­sez pas encore ce qui se joue aujourd’­hui.

  • Messa­ge­rie instan­ta­née et jardins fermés

    Je suis très pessi­miste sur les évolu­tions récentes dans la messa­ge­rie instan­ta­née.

    Le mieux

    Pendant un temps ça s’est un peu amélioré. Les non-tech­ni­ciens ne le voyaient pas mais on a commencé à ouvrir un peu les réseaux. Le proto­cole ouvert et stan­dar­disé XMPP s’est plus ou moins imposé comme base, et Jabber (le réseau des serveurs XMPP ouverts) commençait à prendre pas mal d’im­por­tance.

    Apple iChat, Google et même MSN savaient désor­mais plus ou moins commu­niquer entre eux via ce proto­cole, éven­tuel­le­ment avec quelques arti­fices. Chacun pouvait aussi monter son propre sous-réseau chez lui ou dans son entre­prise, avec sa propre adresse, et commu­niquer avec les gros réseaux de façon trans­pa­rente. Même Skype avait annoncé déve­lop­per un connec­teur pour la partie texte de sa messa­ge­rie. AIM avait de plus commencé à s’ou­vrir au réseau de Google, ce qui était un premier pas.

    Mais ce n’est pas tout : AIM, ICQ, Yahoo! Face­book et bien d’autres ont migré vers ce même proto­cole.Même si leurs réseaux restent isolés les uns des autres, il était possible d’uti­li­ser le même proto­cole et donc d’avoir des appli­ca­tions qui faisaient tout. C’était encore loin d’être idéal, parfois les fonc­tion­na­li­tés avan­cées des diffé­rents réseau n’étaient pas gérées, et pour certains l’im­plé­men­ta­tion était expé­ri­men­tale ou en déve­lop­pe­ment, mais la direc­tion était plus qu’en­cou­ra­geante. Même twit­ter avait une inter­face avec le proto­cole XMPP pour certains flux.

    Les appli­ca­tions Pidgin et Adium permet­taient ce qui manquait encore, en implé­men­tant tous les proto­coles prin­ci­paux. Sous réserve d’avoir un compte sur chaque réseau il était possible de centra­li­ser toute la messa­ge­rie sur une seule appli­ca­tion et de ne pas se préoc­cu­per de savoir qui est sur quel réseau (ou même qu’il existe diffé­rents réseaux).

    Il n’y a presque que Skype qui restait dans son coin mais, au moins dans nos pays, il était quasi­ment exclu­si­ve­ment utilisé pour la voix, pas pour la messa­ge­rie instan­ta­née.

    Et le moins bien

    Malheu­reu­se­ment le « je veux mon réseau social comme Face­book » semble être à la mode et on a tout détri­coté tout juste quelques mois.

    Twit­ter ? Ils ont fermé leur inter­face XMPP, et les évolu­tions montrent qu’ils tentent de contrô­ler les diffé­rentes appli­ca­tions clientes. Le nombre maxi­mum d’uti­li­sa­teurs par appli­ca­tion non-offi­cielles fait qu’il est illu­soir d’ima­gi­ner une compa­ti­bi­lité stable et pérenne avec des appli­ca­tions de messa­ge­rie instan­ta­née.

    MSN ? Ils ont racheté Skype et a annoncé migrer ses utili­sa­teurs de Windows Live vers ce réseau. Le réseau MSN fonc­tionne encore alors que sa date d’ex­tinc­tion est désor­mais passée, mais rien ne permet de dire si ça perdu­rera encore long­temps.

    Le proto­cole Skype n’est malheu­reu­se­ment pas ouvert et ce ne semble pas être la direc­tion souhai­tée en interne. Il est probable qu’il faille désor­mais commu­niquer avec les contacts MSN via Skype et unique­ment Skype.

    Il existe encore un plugin Skype pour Pidgin mais il impose d’avoir le client Skype lancé et connecté, ne couvre pas le mobile, et semble ne pas fonc­tion­ner correc­te­ment pour les utili­sa­teurs qui ont fusionné leur compte Skype et leur compte MSN.

    Google ? Google vient d’an­non­cer le passage à Hangout. Ils avaient déjà éteint un bref moment les échanges entre leurs serveurs de messa­ge­rie et les serveurs tiers, rompant l’in­te­ro­pé­ra­bi­lité. Désor­mais c’est tout le proto­cole XMPP qui est jeté. Impos­sible de commu­niquer avec des utili­sa­teurs non Google une fois que vous avez migré, pas même avec les utili­sa­teurs du réseau AIM qui avaient une liai­son spéci­fique. Impos­sible aussi d’uti­li­ser un client autre que les clients Google.

    L’an­cien réseau XMPP de Google est encore là mais on ne sait pas pour combien de temps. Toujours est-il que les utili­sa­teurs vont migrer vers Hangout au fur et à mesure (consciem­ment ou non) et ce sont autant de gens qui devien­dront injoi­gnables pour ceux qui n’y sont pas encore. Pire : Il semble qu’ils sont encore vus comme connec­tés, mais ne peuvent pas lire vos messages ou vous en envoyer.

    Là aussi, le proto­cole n’est pas connu, donc il faudra avoir un logi­ciel spéci­fique pour Hangout, impos­sible d’uti­li­ser Pidgin ou un équi­valent.

    Sans avenir

    Twit­ter, MSN et Google s’en­ferment chacun dans leur pré : impos­sible de commu­niquer avec eux depuis l’ex­té­rieur, ou d’avoir une même appli­ca­tion qui se connecte aux diffé­rents réseaux. Diffi­cile de comp­ter sur Face­book pour s’ou­vrir, et les autres qui étaient au stade de déve­lop­pe­ment ou d’ex­pé­ri­men­ta­tion ne risquent pas d’in­ves­tir pour péren­ni­ser la chose désor­mais.

    Bref : Vous appar­te­nez au réseau que vous choi­sis­sez, et vous n’êtes qu’un pion dans la guerre qui oppose les multi­na­tio­nales d’In­ter­net. Le courant domi­nant est main­te­nant de fermer les fron­tières et de capi­ta­li­ser sur les utili­sa­teurs pieds et poings liés, c’est à dire vous. Votre proprié­taire pourra vous impo­ser les conte­nus, les services ou la publi­cité qu’il souhaite (rassu­rez-vous, il atten­dra un peu que ça se calme avant de le faire, histoire de ne pas risquer une migra­tion en masse). Une société souhaite lancer des conte­nus ou inno­ver ? OK si elle paye votre proprié­taire et n’entre pas en concur­rence avec lui. Moins vous pour­rez commu­niquer avec l’ex­té­rieur, mieux ce sera car vous serez sous contrôle de votre proprié­taire de réseau.

    Sauf renver­se­ment de situa­tion ou prise de conscience excep­tion­nelle des utili­sa­teurs :

    • Jabber est mort à court ou moyen terme, sauf pour quelques geeks et inter­nautes convain­cus
    • Vous ne pour­rez plus choi­sir vos appli­ca­tions, il faudra accep­ter les appli­ca­tions offi­cielles, en leur donnant les droits qu’elles demandent, en accep­tant publi­ci­tés, mises en avant ou marke­ting qu’elles choi­sissent
    • Si vous n’ac­cep­tez pas de vous lais­ser enfer­mer et menot­ter sur un seul réseau, il faudra instal­ler et lancer simul­ta­né­ment plusieurs logi­ciels diffé­rents non inter­opé­rables
    • Le web ouvert est mal barré

     

  • Ateliers sur la docu­men­ta­tion webperf

    J’ai partagé en ligne il y a quelques temps le début de livre que j’avais rédigé à propos de la perfor­mance des sites web.

    L’objec­tif était d’avoir une « bible » qui réfé­rence toutes les tech­niques impac­tant le temps de char­ge­ment des sites web et la théo­rie sous-jacente. Une moitié du travail était déjà là. C’est sur github, dans un format acces­sible à tous.

    En le posant sur github l’es­prit est « ce contenu appar­tient à ceux qui se l’ap­pro­prient ». Si vous y parti­ci­pez, ça devient un peu le vôtre. De mon côté ce n’est déjà plus « mon livre » mais un projet commu­nau­taire, dont je ne souhaite d’ailleurs pas forcé­ment être le main­te­neur ou l’ani­ma­teur.

    Pour initier la dyna­mique néces­saire, nous avons réalisé deux ateliers : un à Paris fin avril, un dans le cadre de Sudweb la semaine dernière. Il s’agit d’ex­pliquer le projet, puis de réali­ser relec­tures, mises à jour et rédac­tion par petits groupes. Le projet avance un peu, et chacun repart avec une meilleure connais­sance ou des échanges sur un sujet pointu.

    Si vous ne savez pas par où commen­cer vous pouvez commen­cer par regar­der les tickets en cours (« issues » dans la barre de menu github). Ils sont clas­sés par chapitre et par type d’ac­tion (relec­ture, mise à jour, contenu manquant, etc.). Le fichier « HELP.md » à la racine du projet contient aussi un guide de démar­rage avec quoi et comment sur diffé­rentes ques­tions que vous pour­riez vous poser. Vous pouvez aussi simple­ment vous signa­ler et poser vos ques­tions sur la liste de diffu­sion française : https://groups.google.com/group/perfor­mance-web?hl=fr

    La suite c’est de conti­nuer avec les ateliers. Il faut prévoir un anima­teur et proba­ble­ment au moins une personne qui a déjà lu le contenu et saura répondre aux ques­tions tech­niques webperf. Je compte en propo­ser quelques uns mais n’hé­si­tez pas à en orga­ni­ser vous-même dans vos commu­nau­tés locales. Avec un peu de temps se déga­ge­ront certai­ne­ment une ou deux personnes pour animer tout cela sur le long terme.

    Retour sur les deux ateliers précé­dents

    Sur les ateliers passés il y a eu un bon travail sur les relec­tures, qui s’est traduit via quelques correc­tions, quelques ajouts, mais aussi une bonne série de tickets qui permettent main­te­nant de struc­tu­rer et guider les bonnes volon­tés.

    Un gros merci à tous ceux qui ont parti­cipé.

    Deux points soule­vés :

    • En plus de la demie-heure de présen­ta­tion du projet et du fonc­tion­ne­ment, il faut prévoir des créneaux d’au moins une bonne heure, préfé­ra­ble­ment une heure et demie. En dessous on manque de temps pour amener un résul­tat concret.
    • La licence initiale était inuti­le­ment complexe de façon à garder la possi­bi­lité d’em­barquer un éditeur papier dans l’aven­ture. Suite aux diffé­rents retours, il appa­rait plus sage de rebas­cu­ler sur une licence ouverte plus simple, peut être une Crea­tive Commons. N’hé­si­tez pas à en discu­ter ici ou sur la liste de diffu­sion webperf

    Voilà, main­te­nant c’est à vous de jouer.

  • Mais que faire avec la fibre 1 Gb/s de Google ?

    L’au­teur de Slate explore la fibre Google à 1 Gb/s déployée au Kansas. Malgré une démons­tra­tion de confé­rence vidéo avec inter­ac­tion sur Google Maps en instan­tané, l’au­teur semble dépité de ne pas trou­ver de mieux que « ouvrir cinq vidéo 1080p sur Youtube » dans sa recherche de la killer app qui justi­fie­rait une tel débit.

    Il a un peu raison, d’au­tant que cinq vidéo 1080p Youtube c’est entre 20 et 40 Mb/s, donc passe tout à fait sur n’im­porte quelle connexion câblée ou fibre à partir de 50 Mb/s. Il a raison mais il passe tota­le­ment à côté de l’enjeu, et pas mal de commen­ta­teurs français sur twit­ter aussi.

    Que vais-je bien pouvoir faire ?

    Je pour­rai vous rappe­ler quelle est la bande passante pour un blu-ray 3D en 120 Hz, pour la TV 4K dont on commence à parler, pour avoir ça en multi points de vues, et pourquoi pas une fois dans le salon et une fois dans la chambre des enfants, en paral­lèle du backup et de tout le reste. Ok, ce n’est peut être pas acces­sible *aujourd’­hui* mais four­nir de tels services sur le réseau alors que seuls quelques chan­ceux dans une ville des USA peuvent s’en servir, ce serait large­ment préma­turé. Ne vous inquié­tez pas, le Gb/s il finira par être utilisé large­ment avant d’être la norme pour la majo­rité de la popu­la­tion.

    Il n’y a pas de killer app

    Malgré tout, parler de ça c’est tomber dans le même travers que le jour­na­liste de Slate :  Se poser la ques­tion de la killer app c’est se trom­per de débat. Il n’y a pas de killer app, et il n’y a pas à en avoir.

    Qui a besoin d’une killer app ? Dites, c’est quoi la killer app de la cocotte minute ? Celle du micro-onde ? C’est un peu plus long mais vous faites bien la même chose sans. C’est juste plus pratique. Des usages pour un meilleur débit on a déjà tous ceux d’aujourd’­hui : Regar­der plus faci­le­ment des vidéos qu’a­vant, en patien­tant moins qu’a­vant, en meilleure réso­lu­tion. Renon­cer moins faci­le­ment à télé­char­ger des fichiers lourds et attendre moins pour cela. Synchro­ni­ser de plus en plus de fichiers en ligne, et attendre moins souvent la fin de synchro­ni­sa­tion avant de débran­cher. Partage plus faci­le­ment des photos ou des vidéos avec des tiers, en nombre plus impor­tant et en meilleure qualité/taille, en atten­dant moins la fin de l’en­voi.

     

    La killer app c’est de réduire les attentes, élimi­ner les frus­tra­tions, et ouvrir les portes pour faire émer­ger autre chose ; pas forcé­ment faire quelque chose de nouveau et de révo­lu­tion­naire.

    Oui mais… 1 Gb/s… utile ?

    Je me rappelle l’époque où on se moquait des 8 et 20 Mb/s de l’ADSL les trou­vant super­flu. Je crois que Xavier Niel a déclaré il y a à peine quelques mois que la fibre à 100 Mb/s était globa­le­ment inutile. Rien d’éton­nant à ce que la même image appa­raisse avec le palier suivant;

    Aucun de ces usages ne *jus­ti­fie* 1 Gb/s, pas plus que le passage de 20 Mb/s au 100 Mb/s ne se justi­fie (si on oublie le débit montant), ou qu’une ADSL 20 Mb/s n’était à l’époque fonda­men­ta­le­ment meilleure qu’une 8 Mb/s, et que cette dernière n’était elle-même indis­pen­sable à l’époque de la tran­si­tion avec la 2 Mb/s ou la 512 Kb/s. Par contre je mets au défi ceux qui y seront passés d’en­vi­sa­ger reve­nir en arrière.

  • TLS par défaut

    Il ne fallait qu’une heure pour le faire mais je ne l’avais jamais inves­tie jusqu’à présent. C’est main­te­nant fait : Cet espace utilise une connexion HTTP sécu­ri­sée par défaut.

    Le lien HTTP non sécu­risé redi­rige direc­te­ment vers la partie sécu­ri­sée. Cette dernière envoie l’entête HSTS pour bloquer ce choix.

    Remon­tez-moi toute diffi­culté.

  • Paie­ment avec Mozilla

    Je ne sais quoi penser. Mozilla a sorti sa solu­tion de paie­ment. C’est une étape essen­tielle dans l’objec­tif de propo­ser une plate­forme appli­ca­tive complète concur­rente à l’App store d’Apple et au Google Play d’An­droid.

    Main­te­nant, on va me dire que je suis trop critique sur un projet nais­sant mais..

    Prix par palier

    Le prix par palier est une fausse bonne idée. C’est une galère à gérer si on veut vendre sur plusieurs plate­formes ou si on vend aussi hors ligne. Comment est-ce que je synchro­nise les prix ou justi­fie les diffé­rences ?

    Google et Apple le font, parce qu’ils veulent que tout passe par eux et se plie à leur struc­ture. Est-ce vrai­ment le modèle de Mozilla ?

    Comment fais-je pour revoir mon busi­ness plan tous les six mois ? Tous les six mois Mozilla va chan­ger les prix en euros pour tenir compte des conver­sions face au dollar (alors que mes coûts sont en euros et ne changent pas). Au final c’est ma marge qui va faire yoyo hors de mon contrôle, et ça c’est sacré­ment risqué.

    Pire, pour moi qui vend du livre numé­rique avec des prix fixés, je ne peux simple­ment pas léga­le­ment me confor­mer à cette grille. J’ai pour­tant dans les cartons une appli­ca­tion mobile full web qui cadre pour­tant parfai­te­ment avec la philo­so­phie du Market Place Mozilla : dommage.

    Plus éton­nant, pourquoi n’ai-je pas de palier au delà de 10€ ? Il y a bien des logi­ciels qui valent plus de ce montant. Ce n’est même pas rare dans l’App Store ou dans Google Play. Côté Chrome Web Store on a un palier 17 à 37€ et un maxi­mum de tran­sac­tion à 1000€. Il serait dommage que le Market Place Mozilla se limite aux petits jeux à 2$.

    Commis­sion de 30%

    Je ne peux pas non plus donner 30% en commis­sion. Désolé, même avec toute la bonne volonté du monde. Comme beau­coup de commerçants, 30% c’est parfois plus que la marge brute de mes ventes. Si je donne ça, je suis défi­ci­taire avant même d’im­pu­ter mes coûts.

    Oui, Google et Apple le font. Ils profitent de l’en­fer­me­ment de leurs utili­sa­teurs : Si vous voulez vendre il faut accep­ter de passer par là et de lais­ser 30%. Est-ce que vrai­ment Mozilla cherche aussi à moné­ti­ser l’en­fer­me­ment ?

    Mais quitte à compa­rer il faut parler du Chrome Web Store, qui est bien plus proche de l’ap­proche du Market Place Mozilla. Donc le Chrome Web Store prend 5%. Pas 30%, 5%. Forcé­ment, l’uti­li­sa­teur n’est ici pas dans un jardin fermé donc il est plus diffi­cile de justi­fier de telles commis­sions.

    D’ailleurs, quitte à en parler, Google Wallet est capé à 5% mais peut même prendre moins que ça si on dépasse les 9 € sur une tran­sac­tion. Il y a une API pour du in-app, et au final les mêmes possi­bi­li­tés de paie­ment puisque pour l’ins­tant Mozilla n’est bran­ché qu’à Google Wallet. Diffi­cile de justi­fier les 25 points supplé­men­taires de commis­sion.

    Alors ?

    Alors une API passe-plat qui fait la liai­son avec diffé­rents four­nis­seurs de solu­tions de paie­ment ça a de la valeur. Se simpli­fier la vie aussi.

    Disons qu’il faudrait au mini­mum faire sauter la contrainte du palier maxi­mum. Là je peux être prêt à payer un ou deux points de pour­cen­tage sur le prix de vente. Le pres­ta­taire pourra certai­ne­ment en gagner au moins deux autres avec ses pres­ta­taires de paie­ment vu le volume de tran­sac­tions en jeu et l’ab­sence d’in­te­rac­tion avec les vendeurs.

    Par contre pour 25 points de plus que Google Wallet, ça me parait diffi­cile à justi­fier. C’est encore plus plus diffi­cile à imagi­ner aujourd’­hui où ça ne fait que Google Wallet avec des contraintes en plus et moins de fonc­tion­na­li­tés.

  • 42 pour une seule école ? ça fait 41 de trop

    Bon, une nouvelle école. Quelques réac­tions :

    J’ap­pré­cie l’ou­ver­ture sans trop faire atten­tion à l’âge. Les forma­tions privées sont trop souvent atta­chées au cursus avec l’obli­ga­tion d’en­chaî­ner sans s’ar­rê­ter sous peine de devoir passer dans les forma­tions conti­nues spéci­fiques pour.

    J’ap­pré­cie aussi l’hon­nê­teté de faire une vraie sélec­tion, sur l’été pour lais­ser les élèves avoir une porte de sortie avec la fac. Le fait de croire dans une forma­tion de déve­lop­peur et pas que dans des chefs de projets / ingé­nieurs, ça me fait aussi plai­sir : Il faut recré­di­bi­li­ser ces postes si on veut avoir des gens compé­tents.

    Tech­ni­cien expert, C++

    On y forme des tech­ni­ciens, dans la pure lignée Epita / Epitech. Que ce soit un ancien Epitech qui reprenne la chose n’est pas anodin. Ce n’est ni un plus ni un moins, juste diffé­rent de beau­coup de forma­tions actuelles. Je conti­nue à voir une vraie diffé­rence entre ceux qui sont formés avec une orien­ta­tion « ingé­nieur » et ceux qui sont formés avec une orien­ta­tion « tech­ni­cien expert ».

    Une école de plus avec de réels tech­ni­ciens infor­ma­tiques très poin­tus, ok, pourquoi pas, voyons plus loin.

    On ne cède pas à la mode. Tout s’ap­prend par C++ dès la première année. C’est la langue obli­gée qui sert de base pour le reste si je lis bien le programme. Je dirais que ça ne fait pas de mal, que les déve­lop­peurs bas niveau sont trop peu nombreux, mais je ques­tionne la perti­nence de voir le modèle objet par le prisme de C++.

    Peu de web

    Par la suite il y a de nombreuses sections pour C# et les tech­no­lo­gies Micro­soft, quelques sections Java, mais pour le reste on repas­sera : 3 crédits pour apprendre toutes les tech­no­lo­gies web (Javas­cript, PHP, HTML, XML, etc.) et 3 autres pour apprendre en même temps les frame­works web et le e-commerce (Rails, Zend, Ruby, le e-commerce, les cms, les IHM web, et même l’er­go­no­mie web), ça fait fran­che­ment chiche, même pour un simple survol Si j’étais méchant je dirai qu’on comprend mieux le pourquoi des inter­faces de Free.

    Peut être est-ce parce que c’est mon domaine et que j’y attache de l’im­por­tance, mais le web me semble l’objet tech­no­lo­gique majeur de ces dernières années. Bref, pour moi c’est étrange d’y consa­crer si peu. Je ne vois pas les gens apprendre Javas­cript, PHP, HTML5, Zend Frame­work, Ruby et Rails comme ça d’un coup.

    Quelques points datés

    Je conti­nue à tiquer sur GANTT, UML, Merise, ITIL. Je peux le comprendre dans certaines forma­tions. J’ai plus de mal dans une nouvelle forma­tion de zéro, et surtout dans celle là qui est très orien­tée pratique / tech­nique / déve­lop­pe­ment.

    À l’in­verse, pour une forma­tion axée sur le projet et la mise en pratique, parler de méthodes agiles en dernière année ça me semble un peu du gâchis.

    Point global sur le programme

    Bon, mais fina­le­ment tout ce qui précède reste assez cohé­rent. On forme des tech­ni­ciens experts, plutôt bas niveau, dont le haut du panier saura proba­ble­ment inter­ve­nir partout avec aisance et compé­tence.

    Tout juste le programme laisse-t-il appa­raître beau­coup de noms de tech­no­lo­gies et j’au­rais aimé y voir plus d’al­go­rith­mie ou de théo­rie, mais il est tout à fait possible que ce soit abordé à l’oc­ca­sion des projets.

    Je ne vais pas dire que c’est ce que j’au­rais choisi en créant une forma­tion, mais ça ne me semble pas méri­ter toutes les critiques que j’ai vues.

    Enro­bage marke­ting

    Non, moi ce qui me fait prendre de la distance c’est l’en­ro­bage. Ça pue le mauvais marke­ting au point que ça en est néga­tif. J’ai l’im­pres­sion de retrou­ver l’EPITA en 97 : tutoie­ment, on met en avant la créa­tion de virus, une épreuve de sélec­tion « ultime et redou­table » (qui élimine 2/3 à 3/4 des candi­dats, donc bien moins que la plupart des concours ou proces­sus de sélec­tion, dans l’édu­ca­tif ou non), le but est plus d’en mettre plein les yeux que d’ap­pa­raître sérieux.

    On retrouve aussi cet enro­bage dans le super marke­ting « pas de diplôme, l’im­por­tant ce sont les compé­tences ». Sauf que le diplôme en France c’est essen­tiel­le­ment un certi­fi­cat indiquant que tu as suivi une certaine forma­tion. Au lieu d’in­diquer « diplôme de master à xxxx » les élèves indique­ront « suivi forma­tion complète à xxx ». S’ils ne le font pas c’est mauvais signe pour la répu­ta­tion de la forma­tion en ques­tion.

    Pas de diplôme

    Au final ça ne chan­gera donc rien. Ou plutôt si, ça rendra impos­sible certains emplois publics ou diffi­cile certaines embauches à l’étran­ger, ça sera irréa­liste d’en­chaî­ner sur d’autres études supé­rieures comme la recherche ou un MBA en gestion/commerce pour la double compé­tence, et ça empê­chera les échanges par équi­va­lence de diplôme/compé­tence en Europe.

    Je note d’ailleurs que le parcours du DG[*] avec un MBA à HEC ne peut proba­ble­ment pas être fait dans cette nouvelle école (sauf à reprendre de zéro la prépa HEC) juste­ment à cause du manque de diplôme. Faites ce que je dis, pas ce que je fais. Tout ça pour quoi, un effet de manche marke­ting ?

    En fait là aussi ça me fait beau­coup penser à l’EPITA qui à l’époque se défen­dait de trou­ver un inté­rêt à avoir un diplôme reconnu par la CTI mais qui tentait régu­liè­re­ment de la demande (et se fera reje­ter jusqu’en 2007).

    Je me dis que l’ab­sence de diplôme en sortie est proba­ble­ment dû à l’ab­sence de pré-requis du bac en entrée (ça empêche proba­ble­ment de faire recon­naître le niveau ensuite par l’État) mais ça aurait été plus honnête de l’ex­pri­mer ainsi.

    [*] D’ailleurs, c’est moi ou il y a un couac ? Dans son profil Linke­din le DG en ques­tion est ingé­nieur EPITA depuis 92 alors que cette dernière ne délivre de diplôme reconnu que depuis 2007. Même chose pour la préci­sion du master EPITECH 2005 alors que l’école n’est habi­li­tée que depuis 2007. Pire, parce que là il indique une forma­tion entre 1999 et 2005 alors qu’il a fondé l’école et en était le DG à ce moment là (ça me parait un peu incom­pa­tible avec l’idée d’en sortir diplômé pour moi). On voit qu’ef­fec­ti­ve­ment tout n’est pas clair côté diplômes, et ça n’ins­pire pas confiance (Je me souviens un peu trop de l’am­bi­guité entre­te­nue concer­nant le titre ingé­nieur à l’EPITA avant qu’ils n’ob­tiennent l’ha­bi­li­ta­tion).

    Forma­tion

    Je retrouve encore EPITA dans l’idée qu’ils forment des archi­tectes tech­niques, des chefs de projets et des experts. J’ai bien parlé de tech­ni­cien expert plus haut, mais c’est plus pour faire la diffé­rence avec nombre de forma­tions de tech­ni­ciens basiques. Il reste que faire miroi­ter qu’être archi­tecte ou expert en sortie d’école c’est trom­per les élèves. À mon époque certains EPITA croyaient valoir deux fois le salaire d’em­bauche moyen telle­ment on leur montait la tête à ce niveau (je parle d’EPITA mais ce n’étaient pas les seuls).

    Et là où je bip c’est quand je vois parler d’école peer-to-peer. Outre le mot clef marke­ting pour les élèves en manque, ça me rappelle ce que j’ai vu dans d’autres orga­nismes de forma­tion où ce sont les élèves qui donnent les cours aux autres élèves. Ça peut fonc­tion­ner, mais ça a aussi de graves manques. C’est aussi juste infai­sable au départ.

    Si on ajoute que monter une promo de 1000 élèves en une seule année est quasi­ment infai­sable en arri­vant à une bonne qualité de forma­tion, j’ai tendance à croire que les cinq premières promo passe­ront à la trappe et qu’on s’en moque.

    Epita / Epitech / 42

    Au final voilà juste une EPITA / EPITECH de plus, fondée par la même personne, avec la même orien­ta­tion de tech­ni­cien expert, la même philo­so­phie vis à vis des diplôme (affir­mer que c’est inutile jusqu’à enfin réus­sir à avoir l’ha­bi­li­ta­tion), le même danger sur la forma­tion en partie assu­rée par les élèves. Faire des écoles en série ne m’ins­pire pas tant confiance que ça. La forma­tion n’est cepen­dant pas aussi critiquable que ne le laissent entendre quelques geeks.

    Côté résul­tat, comme les EPITA / EPITECH, il peut en sortir du mauvais comme du bon. Et comme dans les deux autres, il en sortira proba­ble­ment quelques-uns de très bons, comme une masse qui n’est pas excep­tion­nelle pour autant. Bref, comme partout : La valeur des gens dépend plus des gens que de la forma­tion.

    Vus le système, la promo immense et le côté marke­ting un peu forcé, je conseille tout de même au moins de ne pas faire partie des premières promos qui risquent de payer les pots cassés.