Catégorie : Technique

  • Sites à page unique

    J’ai beau­coup aimé le site de Bayrou, et j’ai décou­vert il y a quelques temps celui de Troll d’idées. Je vous encou­rage à explo­rer au moins le second.

    Il y a un petit mouve­ment vers les sites à page unique avec des ancres et des sépa­ra­teurs visuels pour navi­guer. Je dois avouer que c’est génia­lis­sime quand c’est bien pensé et bien travaillé, mais ça demande à priori un inves­tis­se­ment en concep­tion large­ment supé­rieur au site habi­tuel. Sans cet inves­tis­se­ment, le résul­tat est rare­ment au niveau.

    Mon problème c’est que sur ces deux sites, il manque une version mobile. Est-ce une bonne pratique sur mobile ? Ce genre de design résis­tera-t-il au temps ou restera-t-il un effet de mode comme furent en leur temps les effets de para­laxe (dont Troll d’idées abuse d’ailleurs un peu) ?

    Connais­sez-vous un site qui fait de même avec en plus du respon­sive design ?

  • Connec­ter une PME à Inter­net

    Trou­ver une connexion Inter­net adap­tée à une PME c’est vite le parcours du combat­tant.

    Notre besoin initial c’est le surf web de tous les jours pour une petite dizaine de personnes, les petits télé­char­ge­ments, les mails, les pièces jointes parfois un peu volu­mi­neuse, la télé­pho­nie voip, et excep­tion­nel­le­ment des télé­char­ge­ments de backups ou des envois de données sur les serveurs de produc­tion.

    Pour traduire ça en carac­té­ris­tiques tech­niques, les coupures sont critiques comme pour tout le monde, mais nous ne mour­rons pas si nous avons quelques heures d’in­dis­po­ni­bi­li­tés une ou deux fois dans l’an­née. Nous n’uti­li­se­rons pas forcé­ment une bande passante moyenne énorme, mais quand il faut envoyer un fichier de 20 Mo, descendre une sauve­garde de la base de données ou monter 500 Mo en produc­tion, c’est plus qu’a­gréable d’avoir un débit consé­quent. Rien de plus gênant que de devoir perdre du temps à envoyer un PDF de 20 Mo à un corres­pon­dant.

    Si j’avais le choix, une offre fibre pour parti­cu­lier à 100 Mb/s descen­dant 50 Mb/s montant, doublée avec une SDSL ou ADSL stan­dard chez un autre FAI, convien­drait à merveille en terme de qualité de service et de capa­cité en débit.

    En pratique notre bureau n’est pas connecté aux réseaux fibrés rési­den­tiels, donc il faut compo­ser autre­ment.

    Débits et prix

    L’ADSL c’est du 20 Mb/s descen­dant, 1 Mb/s montant, pour 30 à 40 € TTC mensuels, moitié plus cher si on prend un FAI « pro » avec une GTR de 4h. Les offres sont assez cohé­rentes.

    Côté SDSL l’offre imbat­table côté prix c’est OVH qui propose 5 Mb/s symé­triques sur une paire de cuivre pour 30 € par mois, sans enga­ge­ments ni frais d’ins­tal­la­tion ou rési­lia­tion. Les concur­rents ont eu beau me soute­nir que ces débits étaient impos­sibles sur une unique paire de cuivre, j’ai pu constaté que les 5 Mb/s sont effec­ti­ve­ment atteints. Si vous voulez du GTR 4h (heures ouvrées) on passe à 100 € par mois avec un enga­ge­ment d’un ou deux ans et des frais d’ins­tal­la­tion. Sur cette dernière il est possible de cumu­ler jusqu’à 4 paires de cuivres pour un débit de 20 Mb/s symé­trique (mais la facture augmente).

    Chez la concur­rence en SDSL c’est la vraie jungle. Le plus souvent c’est limité à 2 Mb/s par paire de cuivre et avec un prix aux alen­tours de 200 € mensuels par paire, plus des frais d’ins­tal­la­tions et un enga­ge­ment de deux ans. Parler de 8 Mb/s c’est quadru­pler les prix, tout simple­ment. Seul Colt propose du 5 Mb/s sur une seule paire, mais à 500 € mensuels. Tous ces prix sont avec une GTR, en géné­ral de 4h en heures ouvrées.

    Si on souhaite monter un peu en débit il faut passer par des offres « fibre ». Là il faut sortir le porte­feuille. On parle assez rapi­de­ment de 750 à 1500 € mensuels pour 10 Mb/s, sans comp­ter le raccor­de­ment initial.

    La GTR, la haute dispo­ni­bi­lité

    On peut faci­le­ment se dire qu’une coupure est inac­cep­table, empê­chera les gens de bosser, de rece­voir les coups de télé­phone. C’est souvent vrai mais outre la ques­tion « quel montant est-il raison­nable d’in­ves­tir pour éviter une coupure ? », il faut bien penser à « ce montant me garan­tit-il vrai­ment contre une coupure ? »

    La GTR et le débit garanti ce sont les deux mots de tous les commer­ciaux qui vendent de la SDSL. En pratique ne vous y trom­pez pas : Une GTR de 4h en heures ouvrées, ça veut dire que votre ligne peut tomber une demie jour­née et ne la voir réap­pa­raitre que le lende­main matin. Hors cas excep­tion­nel, la qualité ne sera donc pas forcé­ment meilleure qu’une ligne rési­den­tielle grand public.

    Sur les cas graves on peut comp­ter avoir des équipes qui inter­viennent avec plus de sérieux et plus d’im­pli­ca­tion mais le GTR ne « garan­tit » en fait rien. Il vous permet juste de récu­pé­rer une faible partie de la facture mensuelle si l’ac­cès n’est pas réta­blit.

    Si le problème est au niveau du répar­ti­teur ou de la boucle locale, il est probable que ça ne change rien au temps de réta­blis­se­ment. Si le problème est au niveau du FAI, avoir une seconde ligne en paral­lèle chez un second FAI vous coûtera proba­ble­ment moins cher que la GTR « pro » tout en ayant un béné­fice bien plus grand.

    Le plus symbo­lique c’est bien l’offre OVH où la même connexion passe de 30 € à 100 € en ajou­tant la GTR. La techno est la même, l’in­fra est la même. Je veux bien croire que l’équipe sera un peu plus réac­tive, mais si la rési­den­tielle tombe c’est proba­ble­ment que la pro serait tombée aussi, et les temps de réta­blis­se­ment réels ne seront pas fonciè­re­ment diffé­rents. L’équipe commer­ciale OVH confirme d’ailleurs très bien ça au télé­phone en disant que l’offre avec GTR c’est « pour ceux que ça rassure ».

    La gamme de choix

    En montant une SDSL OVH doublée par une ADSL stan­dard d’un autre FAI on est loin d’être « sans risques » mais c’est un risque qui peut proba­ble­ment être assumé.

    Le choix du pauvre c’est donc un 60 € par mois pour le couple SDSL + ADSL. Pour le même prix ça permet d’uti­li­ser l’un ou l’autre suivant qu’on a besoin de débit montant ou descen­dant. Le résul­tat c’est un peu 20 Mb/s en descen­dant, 5 Mb/s en montant (si vous êtes proche du sous-répar­ti­teur).

    Pour ajou­ter quelques bretelles on peut prendre la GTR sur la ligne OVH, et une offre avec clef 3G de secours côté ADSL SFR. La GTR permet de combler les problèmes simples, et la clef 3G permet de border si c’est quelque chose de grave et long. Ça ne sera pas idéal, ça ne couvre pas tous les cas, mais ça reste abor­dable pour 150 € mensuels.

    Monter en débit deman­dera un inves­tis­se­ment de 100 € mensuels par paliers de 5 Mb/s sur la SDSL. La fibre et les liai­sons dédiées n’au­ront de sens que si vous ne pouvez vrai­ment accep­ter aucune coupure (mais sans vous faire d’illu­sions : vous en aurez quand même), si vous voulez plus de 20 Mb/s (mais la facture sera multi­pliée par 5 rien que par le chan­ge­ment de techno avant même de dépas­ser les 20 Mb/s), ou si vous n’êtes pas proches d’un sous-répar­ti­teur (mais peut être que démé­na­ger la PME coûtera moins cher que de passer par une fibre).

    Si vous montez une boîte techno, être sur de la fibre rési­den­tielle à 45 € par mois vous sauvera pas mal de cash les premiers temps. Ça vaut le coup de le prendre en compte dans votre loca­li­sa­tion initiale.

  • Tele­net qui freine offi­ciel­le­ment le P2P et la consom­ma­tion massive

    Si vous ne connais­sez pas encore plus.net, il faut faire un tour sur leur tableau de gestion de trafic en fonc­tion des offres. Heureu­se­ment nous n’en sommes pas encore là en Europe, mais ce qui se profile n’est pas forcé­ment meilleur.

    L’exemple de ce que je crains c’est Tele­net qui freine offi­ciel­le­ment le P2P et la consom­ma­tion massive. Ça n’a l’air de rien et à la première lecture on pense faci­le­ment que la mesure est sage tout en permet­tant à chacun de parta­ger les ressources en bonne intel­li­gence.

    Là où les choses prennent du relief c’est en reli­sant deux ou trois fois le dernier para­graphe : Tele­net nie avoir des problèmes de capa­cité. Pour­tant, l’objet même de la mesure c’est de /parta­ger/ une ressource limi­tée pour qu’elle soit utili­sable à tous. Ça n’a de sens que dans le cadre d’un four­nis­seur d’ac­cès qui sature.

    Facile de cibler les plus gros consom­ma­teurs et les offrir en pâture. Main­te­nant ne serait-il plutôt pas légi­time d’at­tendre que le four­nis­seur réalise les inves­tis­se­ments néces­saires ?

    On voit d’ailleurs bien que c’est une ques­tion pure­ment commer­ciale en ce qu’on peut indis­po­ser les autres avec plus de volume tant qu’on paye une offre plus chère.

    Le danger est encore plus fort quand on parle de filtrer par proto­cole ou par appli­ca­tion. Qui décide quel trafic est légi­time et quel trafic est de trop ? pourquoi ? selon quels critères ?

    Pourquoi le « P2P » est-il visé mais pas Skype qui en fait un usage des plus larges ? Pourquoi le P2P et pas la vidéo ? Pourquoi même juge-t-on le P2P illé­gi­time ? Des appli­ca­tions P2P audio concur­rentes à Skype seront-elles libres d’ac­cès ou l’ex­cep­tion est-elle propre à Skype ?

    Le passé nous a déjà amené des choses bien jolies, avec des opéra­teurs Inter­net mobile qui au nom d’une ressource limi­tée inter­disent la voix sur IP mais auto­risent hors quota l’ac­cès à la télé­vi­sion via 3G. Nous avons aussi des opéra­teurs qui ont nié pendant des années un bridage P2P et qui se sont fait condam­ner 6 ans après par la justice pour ce même bridage. Les mêmes ont une inter­con­nexion Youtube trop pour­rie pour regar­der une vidéo en qualité stan­dard mais qui diffusent de la HD avec une QoS bien réglée sur leur VOD. D’autres ont acheté le concur­rent de Youtube.

    Qui va dire quelle situa­tion est légi­time, où est la limite, qui décide quel inves­tis­se­ment est raison­nable et quel pour­ris­se­ment vient d’une volonté de favo­ri­ser ses propres services ?

    Cela ne résou­dra pas tout, mais nous avons plus que jamais besoin que l’Eu­rope mette quelque part une ligne rouge à ne pas fran­chir. Lais­ser l’opé­ra­teur déci­der quel proto­cole, quelle appli­ca­tion ou quel usage est légi­time, me paraît être bien au delà de la ligne rouge souhai­table.

  • Web Perfor­mance Daybook Volume 2

    J’ai le plai­sir de vous annon­cer la publi­ca­tion de Web Perfor­mance Daybook Volume 2 (aussi dispo­nible en France). Il s’agit d’un recueil d’ar­ticles de plus de 30 auteurs autour de la perfor­mance web, collec­tés par Stoyan Stefa­nov en fin d’an­née dernière et auquel j’ai eu le plai­sir de parti­ci­per.

    Certes, tout le contenu peut être trouvé par Inter­net mais les béné­fices sont inté­gra­le­ment rever­sés à la fonda­tion WPO, dont l’objec­tif est d’ai­der et finan­cer les projets open source et la recherche autour de la perfor­mance web.

    Bref, proba­ble­ment un geste utile autant qu’in­té­res­sant.

    Si ça fonc­tionne, nous verrons proba­ble­ment un volume 1 prendre la suite (avec des articles de l’an­née précé­dente, mais toujours inté­res­sants).

  • Docu­ment store à recom­man­der

    J’ai un modèle rela­tio­nel très complexe avec des règles métier des plus biscor­nues quand on souhaite relire quelque chose. Par exemple, pour récu­pé­rer le libellé d’un item il faut que je conca­tène plusieurs champs et que je fasse une ou deux condi­tions pour gérer des cas spéci­fiques.

    J’ai peur que ça devienne diffi­cile à gérer et que ça faci­lite énor­mé­ment les erreurs de trai­te­ment à l’ave­nir.

    J’ai envi­sagé les trois solu­tions clas­siques :

    • dénor­ma­li­ser le modèle en stockant à plat certaines données préca­lu­lées dans le SGBDR, mais il y a pas mal de choses où c’est vrai­ment déli­cat, par exemple quand un item contient une collec­tion de données
    • coder des vues complexes et des procé­dures stockées pour auto­ma­ti­ser certaines actions, mais j’ai l’im­pres­sion de dépor­ter mon métier là où ça sera le plus diffi­cile à main­te­nir et à déve­lop­per
    • ou utili­ser un bête stockage orienté docu­ment et lais­ser tomber le rela­tion­nel, qui de toutes façons me sert assez peu sur ces données

    À priori je suis plutôt parti sur la troi­sième solu­tion et j’ai besoin de vos lumières pour choi­sir le datas­tore le plus adapté.

    Voici mes contraintes :

    • Perfor­mant (c’est pour utili­ser en perma­nence au cœur de l’in­fra)
    • Acces­sible faci­le­ment en PHP
    • Stocke des données struc­tu­rées (type json) avec de la hiérar­chie (un docu­ment peut conte­nir une collec­tion par exemple)
    • Le modèle de chaque docu­ment doit être libre ou en tout cas très souple
    • Sait mani­pu­ler une collec­tion de plusieurs millions de docu­ments (d’où la néces­sité des index au point précé­dent)
    • Sur ces millions de doc je peux faire des requêtes de type « par date de mise à jour inverse, unique­ment ceux qui ont un attri­but ‘toto’ à 145 et un attri­but ‘tata’ à 567 » sans avoir à faire un scan de tous les docu­ments à la requête (ce qui implique proba­ble­ment des index)
    • Sait gérer de la haute dispo­ni­bi­lité (par exemple deux serveurs synchro­ni­sés en master-master)
    • Simple à utili­ser et admi­nis­trer
    • Stockage disque (donnée pérenne en cas de plan­tage)
    • Accès réseau (la base et l’ap­pli­ca­tif sont sur des serveurs diffé­rents)

    J’ai aussi des non contraintes :

    • Les écri­tures sont faites en batch, je n’ai pas besoin de tran­sac­tion ou de lock d’écri­ture
    • Je n’ai pas besoin de vali­da­tion, typage, ou contrainte d’in­té­grité
    • Je n’ai pas besoin de tran­sac­tions
    • En cas de plan­tage, j’ac­cepte de perdre quelques minutes de données non écrites (mais pas de plan­ter les anciennes données)
    • J’ac­cepte des latences jusqu’à quelques minutes entre les diffé­rents serveurs synchro­ni­sés
    • Je peux prévoir à l’avance les requêtes que je vais faire (et donc construire des index dédiés)

    Les bonus :

    • Consom­ma­tion mémoire pas trop déli­rante
    • Outil pour faire des dump/restore

    Cassan­dra, Volde­mort, MongoDB et autres joyeu­se­tés, je suis preneur de vos recom­man­da­tions avec expli­ca­tions, ou simple­ment des liens vers des billets qui peuvent m’éclai­rer.

    Merci à vous cher public (j’ai toujours rêvé de dire ça ;)

  • Do Not Track (enfin pas moi, les autres on peut)

    DNT c’est le nom d’une petite entête qui peut être envoyée par votre navi­ga­teur pour deman­der aux éditeurs de sites et services web de ne pas vous tracer et stocker vos données person­nelles. L’idée est sédui­sante, surtout si les éditeurs en ques­tion acceptent de respec­ter cette demande, et c’est bien toute la problé­ma­tique.

    L’im­po­ser à ceux qui n’en veulent pas

    Les éditeurs n’ont bien entendu aucune envie de se passer d’au­tant de données et de possi­bi­li­tés. En même temps ils savent que s’ils ne font rien, un jour le raz le bol pour­rait deve­nir suffi­sant pour qu’on leur mette des bâtons dans les roues de manière durable et plus stricte. Du coup ils acceptent géné­ra­le­ment des chartes ou des méca­nismes d’opt-out, comme autant de soupapes pour satis­faire les plus radi­caux et comme preuves de bonne foi vis à vis des poli­tiques.

    L’enjeu de DNT est là : Tant que le méca­nisme est confi­den­tiel, il sera accepté par certains éditeurs, comme une bonne soupape. Si le méca­nisme devient utilisé massi­ve­ment alors il sera vite mis au rebut car il tuerait toute l’ac­ti­vité. N’im­porte quel prétexte suffi­rait mais il n’y aura même pas besoin d’an­non­cer quoi que ce soit, il suffira de ne pas le respec­ter.

    Mozilla : opt-out

    Mozilla a choisi d’im­plé­men­ter DNT en le lais­sant désac­tivé par défaut pour ne pas déclen­cher cette bombe atomique et tout casser. Charge à chacun d’al­ler dans les préfé­rences pour l’ac­ti­ver manuel­le­ment. Seuls « ceux qui savent » (geeks et utili­sa­teurs avan­cés) iront modi­fier les confi­gu­ra­tions. Mozilla pourra dire que son navi­ga­teur implé­mente DNT alors que celui de Google ne le fait pas, les éditeurs de services auront leur soupape-prétexte pour éviter des risques plus impor­tants, et les geeks très au fait des ques­tions de vie privée auront leur option.

    Ce qui me gêne dans l’équa­tion de Mozilla c’est qu’elle est très bien pour les commu­niqués de presse de tout le monde, mais qu’elle laisse pour compte 95% des utili­sa­teurs du navi­ga­teur dont proba­ble­ment l’es­sen­tiel auraient demandé à ne pas être tracés si on leur avait posé la ques­tion (vous en connais­sez beau­coup qui souhaitent être tracés ?).

    Objec­tif à long terme

    Il y a paraît-il un scéna­rio long terme avec une mise en œuvre progres­sive, et peut être un support de la loi. Fran­che­ment je n’y crois pas une seconde. Les socié­tés de data mining sont un lobby suffi­sam­ment puis­sant et bien orga­nisé pour ne pas se lais­ser prendre dans une telle souri­cière, surtout si elle est publique. Il y aura une fronde dès que ça devien­dra trop poli­tique, et un arrêt du support s’il y a risque d’uti­li­sa­tion plus massive.

    Entre temps Mozilla aura simple­ment joué le jeu de ces socié­tés contre ses propres utili­sa­teurs, leur donnant simple­ment du temps avant le conflit ouvert qui ne pourra qu’ar­ri­ver si on conti­nue la pres­sion.

    Micro­soft : opt-in

    L’al­ter­na­tive n’est pas forcé­ment plus enga­geante. On peut poser la ques­tion à l’uti­li­sa­teur mais ce procédé atteint vite ses limites. C’est très désa­gréable pour l’uti­li­sa­teur et une fois qu’on commence on finit vite par lui deman­der de remplir un vrai formu­laire de police.

    Il ne reste donc qu’à acti­ver DNT par défaut (et lais­ser ceux qui le veulent vrai­ment le désac­ti­ver, mais personne ne le fera), déclen­cher une utili­sa­tion massive, et mettre les éditeurs de service au pied du mur. Il y a toutes les chances que ça signe la mort de DNT mais au moins les choses auront été claires.

    Mais alors ?

    Je serai plutôt parti­san d’échouer vite et bien, pour lais­ser la place à d’autres initia­tives. Ça ne chan­gera peut être rien au final par rapport à la situa­tion de Mozilla, mais nous n’au­rons pas donné aux éditeurs de quoi faire semblant et obte­nir des délais pendant encore deux ans.

    Je ne prétends pas que cette option est forcé­ment meilleure. Je trouve un peu hypo­crite le choix de Mozilla mais même si je n’y crois pas, je respecte leur choix d’es­sayer d’avan­cer par petits pas avec l’es­poir de mettre en place un plan sur le long terme, mais au moins elle a le mérite d’être honnête et d’avoir du sens. Par contre je me refuse à critiquer Micro­soft pour avoir eu le courage de choi­sir la voie directe.

  • Livre sur les perfor­mances cherche famille d’ac­cueil

    J’ai commencé un long projet il y a plus de trois ans de cela : un livre sur le temps de réponse des sites web. Le projet a rapi­de­ment avancé, avec 150 pages A4 rédi­gées et relu. C’est la moitié de l’objec­tif du sommaire, ou à peine plus, mais c’est déjà le volume d’un bon petit livre tech­nique. C’est certai­ne­ment de l’égo mal placé, mais je pense encore que le contenu est riche, de qualité, et n’a pas vrai­ment d’équi­valent, même en anglais.

    Le projet stagne toute­fois depuis deux ans avec un avan­ce­ment entre la moitié et les deux tiers. Écrire un livre tech­nique c’est un projet à plein temps sur plusieurs mois, surtout que j’ai tendance à vouloir être exhaus­tif. J’ai toujours eu un métier à plein temps à côté et des événe­ments profes­sion­nels et person­nels régu­liers ont fait que je n’ai pas pu y consa­crer le temps néces­saire. Ces derniers temps mon métier s’est de plus tota­le­ment éloi­gné de la perfor­mance des sites web, ce qui rend diffi­cile l’in­ves­tis­se­ment person­nel et la moti­va­tion néces­saires.

    J’ai tenté de trou­ver des co-auteurs pour relan­cer le projet mais chacun a aussi ses propres projets et un manque de temps. Je n’ai pas su trou­ver les bonnes personnes, ou elles n’ont pas pu déga­ger le temps pour s’y mettre.

    Au final j’ai un contenu qui me semble de bonne qualité mais incom­plet qui dépé­rit avec le temps. Il finira pas ne plus être suffi­sam­ment à jour, et ne servir à personne. Voir mourir ce bébé m’at­triste, j’ai­me­rai l’évi­ter.

    Voilà où j’ai besoin de vous : trou­ver une famille d’ac­cueil à cet ouvrage, une personne un groupe ou une société qui complète les chapitres non écrits, remette à jour ceux qui le sont déjà, et qui en fasse quelque chose. Je suis ouvert à toutes les propo­si­tions sérieuses. Mes critères sont les suivants, par prio­rité :

    • Je tiens à la qualité du contenu. S’il est repris et qu’il évolue, je tiens à ce que ce soit par ou sous la surveillance de gens sérieux et compé­tents sur le sujet
    • Ceux qui reprennent le projet souhaitent y inves­tir un temps suffi­sant, sinon une éven­tuelle reprise n’aura aucun inté­rêt
    • Je souhaite que mon nom reste crédité sur le contenu, et tant que le contenu initial reste signi­fi­ca­tif dans l’ou­vrage final, que ce crédit soit à titre de (co-) auteur prin­ci­pal
    • Pour mon égoïste satis­fac­tion person­nelle, j’ai­me­rai beau­coup que l’ou­vrage finisse publié sur papier (un éditeur est inté­ressé à priori, « il suffit de »)
    • S’il y a une utili­sa­tion commer­ciale, direc­te­ment ou indi­rec­te­ment, sauf excep­tion je souhaite une rému­né­ra­tion raison­nable à hauteur de ma contri­bu­tion au résul­tat final

    Là dessus vous pouvez envi­sa­ger à peu près ce que vous voulez. N’hé­si­tez pas à faire suivre à ceux que ça peut inté­res­ser.

  • Which program­ming language should I learn first?

    Histoire de rire un peu (jaune) :

    • To get a guaran­teed, mediocre, but well paying job writing finan­cial appli­ca­tions in a cubicle under fluo­res­cent lights: Java.
    • To do the same thing with certi­fi­ca­tions and letters after your name: C#

    Which program­ming language should I learn first? Et vous, quel langage appre­nez-vous ?

  • Worried about online porn? Don’t regu­late the net – regu­late your kids

    Je n’ai jamais envi­sagé ça ainsi, mais ça prend vite du sens : Le problème avec le Porno c’est qu’on essaye de régu­ler le réseau au lieu de régu­ler les enfants voire les parents.

    Fran­che­ment, est-il sain de brider, surveiller, et modi­fier la nature même du réseau et de ce qu’il peut appor­ter unique­ment pour permettre à des parents d’aban­don­ner leur surveillance et de lais­ser l’ou­til dans les mains de leurs enfants sans avoir à opérer leur rôle ?

    Worried about online porn? Don’t regu­late the net – regu­late your kids

    Jusqu’à présent j’ai toujours consi­déré que le risque était celui d’une domi­na­tion de l’ordre moral mais cela pour­rait être encore plus idiot : Sommes-nous en train de casser ces superbes outils que sont Inter­net et le web juste pour donner un peu plus de confort à quelques uns ?

  • More Than 55,000 Twit­ter Account User­names & Pass­words Are Hacked And Leaked

    Quand on trouve un article annonçant 55 000 mots de passe de comptes révé­lés au grand jour, je ne me plains pas de la sécu­rité des mots de passe ou de celle du service. Dans la liste on trouve des mots de passe complexes, et rien ne permet d’af­fir­mer qu’il y a eu une négli­gence coupable de la part de twit­ter.

    More Than 55,000 Twit­ter Account User­names & Pass­words Are Hacked And Leaked

    C’est bien joli d’in­ci­ter les gens à utili­ser un mot de passe diffé­rent par service, à ne pas les sauve­gar­der, d’en utili­ser des complexes et en plus de les chan­ger souvent, mais c’est propre­ment irréa­liste

    La solu­tion on la trouve dans WebID, dans Brow­serID, ou même pourquoi pas dans OpenID, malgré tout les défauts liés à ce dernier. Et si on s’y mettait ?

    Ce n’est pas si complexe que ça. Il suffi­rait d’un mouve­ment de la part de la commu­nauté pour avoir des outils simples, ergo­no­miques et utili­sables. La base tech­nique est là.