Catégorie : Réseaux et Internet

  • France : Google privé du statut d’hé­ber­geur pour ses liens Adwords

    Le statut d’hé­ber­geur est un réel flou en France. Il permet norma­le­ment à un héber­geur ou inter­mé­diaire tech­nique d’être exonéré de respon­sa­bi­lité pour des conte­nus illé­gaux à certaines condi­tions, mais savoir qui peut en profi­ter semble faire conti­nuel­le­ment sujet à débat.

    Par le passé on l’a refusé à l’un parce qu’il avait de la publi­cité, à l’autre parce qu’il avait une caté­go­ri­sa­tion des actua­li­tés postées par les visi­teurs, à un troi­sième parce qu’il y avait une modé­ra­tion… Pas mal de ces déci­sions sont souvent jugées contes­tables par les gens du métier, moi le premier.

    Ici Google est privé du statut d’hé­ber­geur pour ses liens Adwords, parce qu’il prévoit que les demandes doivent être lancées plusieurs jours avant la prise d’ef­fet pour permettre à Google de faire des obser­va­tions, des modi­fi­ca­tions, ou des refus. Parti de là, c’est qu’il y a une revue de prévue à priori, et donc qu’il y a travail édito­rial et publi­ca­tion en connais­sance de cause, du moins telle semble être l’in­ter­pré­ta­tion du juge. On peut simple­ment dire comme dans l’ar­ticle que Google est pris à son propre jeu juri­dique, mais je serai tenté de dire que pour une fois l’in­ter­pré­ta­tion est intel­li­gente. On ne peut pas et récla­mer ne pas pouvoir vali­der les conte­nus, et impo­ser un délai préa­lable destiné à juste­ment les vali­der (ce qui n’im­plique pas que c’est fait, mais au moins qu’il est prévu que ce puisse être fait). C’est une histoire de cohé­rence et de réci­pro­cité.

  • Le déséqui­libre des échanges impose-t-il vrai­ment d’at­ten­ter à la neutra­lité du net ?

    Le billet de Ludo­vic Pénet sur le déséqui­libre des échanges réseau et la neutra­lité du net ne parle fina­le­ment que peu de déséqui­libres mais j’en profite pour m’ac­cro­cher à la discus­sion.

    Tout d’abord je suis agacé quand j’en­tends parler de ce fameux déséqui­libre. Un tuyau fait passer des données. Elles consomment une partie de la bande passante du tuyau, néces­site des ressources pour les routeurs et l’ache­mi­ne­ment, mais fina­le­ment rien dans tout ça n’est dépen­dant du sens de l’in­for­ma­tion lui-même. L’asy­mé­trie n’est en rien un « problème ».

    Fut-ce t’il d’ailleurs un problème qu’il serait fran­che­ment hypo­crite de la part des opéra­teurs de s’en plaindre. On ne peut décem­ment pas offrir un accès à l’uti­li­sa­teur 20 fois plus large en descente qu’en montée, puis râler ensuite qu’il y a plus de descente que de montée. Il faudrait rester un mini­mum cohé­rent.

    La ques­tion est par contre éven­tuel­le­ment de savoir sur quel réseau circule la donnée avant d’ar­ri­ver à son point de chute, ainsi que de savoir qui est respon­sable du trafic, et donc de son paie­ment.

    Là aussi je trouve le compor­te­ment des opéra­teurs très hypo­crite. Le contenu trans­féré l’est parce qu’il est demandé par le réseau de l’opé­ra­teur (par l’abonné). Le respon­sable est-il celui qui répond à la demande ou celui qui demande ? Fina­le­ment, ne serait-ce pas plutôt à l’opé­ra­teur de payer le four­nis­seur de service pour les ressources serveur qu’il consomme ? Ces ressources serveur coûtent certai­ne­ment plus cher que les ressources réseau.

    Ludo­vic parle de marges arrières et je pense qu’il est en plein dans le sujet. L’opé­ra­teur est bien dans une démarche de distri­bu­tion d’un contenu payé par ses clients et four­nit par d’autres. Il remplit un service qui mérite  finan­ce­ment mais sa posi­tion de force trop impor­tante finit par lui permettre des compor­te­ments nocifs pour tout le monde.

    À long terme ces compor­te­ments sont même nocifs même pour l’opé­ta­teur lui même, mais à la limite c’est peu impor­tant. Ici on touche de trop près à la  à la capa­cité de commu­niquer, d’in­for­mer, au lien social, à la capa­cité d’ac­cé­der au monde, pour qu’on ait le droit de lais­ser faire un jeu qui favo­rise certains four­nis­seurs de services (qui payent) par rapport à d’autres.

    Il faut convaincre nos poli­tiques de bouger pour faire de l’ac­cès à Inter­net un service neutre et protégé, comme peut l’être l’ac­cès à l’élec­tri­cité. Problème : ces derniers voient encore Inter­net comme un ennemi qu’il faut surveiller et contrô­ler. Leur voie se situe sur le DPI (contrôle profond du tran­sit réseau), ce qui arri­vera forcé­ment si on renforce le contrôle des opéra­teurs.

  • Hotfile : Warner Bros a fait reti­rer des fichiers sans en déte­nir les droits

    Si d’au­cuns pensaient encore que les ayants droits sont des cheva­liers blancs qui luttent contre l’in­fâme contre­façon, voilà de quoi détrom­per. Via les outils anti-contre­façon propo­sés par Hotfile : Warner Bros a fait reti­rer des fichiers sans en déte­nir les droits.

    Des fichiers sont suppri­més en masse simple­ment parce qu’ils contiennent un mot du titre du dernier film sorti. On peut voir ça comme une erreur mais c’est surtout une consé­quence d’une volonté de ne pas véri­fier les objets suppri­més un à un, même pas leur titre, et de se moquer des dégâts colla­té­raux.

    On trouve aussi au moins un logi­ciel d’op­ti­mi­sa­tion de télé­char­ge­ment. Là je vois diffi­ci­le­ment une erreur et plus proba­ble­ment une volonté d’ou­tre­pas­ser ses droits en faisant justice soi même et reti­rer un logi­ciel qui leur semble globa­le­ment faci­li­ter le télé­char­ge­ment de contre­façon (même si pour le coup ça servait à tous les télé­char­ge­ments sans faire de lien spéci­fique).

    Warner Bross refuse à ce qu’on l’oblige à véri­fier un à un chaque fichier supprimé pour en véri­fier la léga­lité. Le fait que ce soit ce que juste­ment ces socié­tés cherchent pour­tant juste­ment à impo­ser aux plate­formes d’échange et de diffu­sion ne les effleurent même pas. Diffi­cile ensuite de soute­nir leur combat.

  • Finan­ce­ment FTTH

    Je propose de faire la FTTH avec une taxe sur la produc­tion cultu­relle, musique et vidéo, parce que fina­le­ment ce sont eux qui l’uti­li­se­ront le plus.

    Ce serait un juste retour des choses non ?

  • Sécu­rité sur le web avec HTTPS ? des clous !

    Le problème commence à être connu et il est malheu­reu­se­ment non résolu : Tout le modèle de sécu­ri­sa­tion des sites web par HTTPS (chif­frage SSL/TLS) est à revoir.

    Il était déjà bancal dès le départ en instau­rant des auto­ri­tés de confiance qui n’ont qu’un rôle de rentier et qui taxent tous les utili­sa­teurs, mais leur multi­pli­ca­tion et leur manque de sécu­ri­sa­tion rend tota­le­ment vide de sens la sécu­rité du système.

    En fait c’est assez simple :

    • Nous avons au grand mini­mum une compro­mis­sion d’au­to­rité de certi­fi­ca­tion par mois, et chacune permet d’usur­per n’im­porte quel site auprès de n’im­porte quel navi­ga­teur.
    • Certaines auto­ri­tés sont contrô­lées par ou en colla­bo­ra­tion avec des états, y compris auto­ri­taires ou non démo­cra­tiques, ces états ayant alors la capa­cité d’es­pion­ner ou d’in­ter­cep­ter les commu­ni­ca­tions chif­frées vers n’im­porte quel site sans que cela ne se voit.
    • L’opa­cité totale des auto­ri­tés de certi­fi­ca­tion rend impos­sible de connaître la plupart des dégâts ou des risques en jeu.

    Il est d’ailleurs impor­tant de noter qu’on ne parle pas de ques­tions théo­riques mais de procé­dés concrets qui ont été mis en jeu. On parle de certi­fi­cats illé­gi­times au nom de Google, de Yahoo ou de banques qui ont été émis pour trom­per les navi­ga­teurs, et de maté­riels qui sont réali­sés pour inter­cep­ter et espion­ner les commu­ni­ca­tions TLS pour qui (états) a des certi­fi­cats maitres à sa dispo­si­tion.

    Le fait même d’avoir mis en place un système centra­lisé me semble avoir été une erreur énorme, mais il est temps d’ar­rê­ter les frais. Il est plus que temps de passer à un modèle décen­tra­lisé qui n’aura pas toutes les quali­tés théo­riques du modèle actuel, mais qui ne sera pas autant troué. Cela demande toute­fois que les états acceptent de ne plus être en capa­cité de contrô­ler ce qu’il se passe, même indi­rec­te­ment. Mon côté para­noïaque m’en fait douter.

    Entre temps, sur Mozilla Fire­fox vous permet d’ini­tier le mouve­ment à l’aide de quelques exten­sions.

  • Google est-il devenu tota­le­ment irres­pon­sable ?

    Google est un acteur dange­reux car sur une simple volonté il peut chan­ger l’ac­cès à l’in­for­ma­tion de milliards de personnes, poten­tiel­le­ment sans que ça se voit. Il peut faire de même sur des sites commer­ciaux, pour ses propres inté­rêts.

    Pour autant, je déteste ces appels au loup (parfois indi­rects) des pres­ta­taires de réfé­ren­ce­ment et des boutiques qui se retrouvent moins bien posi­tion­nées que la veille. (suite…)

  • Sauve­garde de l’his­to­rique de lecture

    Je cherche à orga­ni­ser mes archives de lectures, en sauve­gar­dant les pages consul­tées ou parta­gées dans leur version de lecture pour une consul­ta­tion plus tard (si le contenu change ou dispa­raît) et pourquoi pas une indexa­tion parti­cu­lière. (suite…)

  • De la multi­pli­ca­tion des antennes pour télé­phone mobile

    Commençons par ce qui fait débat : Je n’ai pas d’élé­ment permet­tant d’af­fir­mer ou d’in­fir­mer l’im­pact sur la santé de la proxi­mité des antennes relais. Mieux, si ces craintes me semblent crédibles je ne veux pas céder à un « prin­cipe de précau­tion » exagé­ré­ment large.

    Par contre, sauf à vouloir inter­dire tout réseau sans fil de taille consé­quente, je me désole à chaque fois que j’en­tends un groupe qui fait échec à une antenne.

    Multi­plier les antennes

    Si je me place unique­ment du point de vue de l’in­ten­sité des ondes et de leur risque pour la santé, la meilleure chose à faire c’est au contraire de multi­plier les antennes.

    L’exer­cice est très simple : Prenez une feuille quadrillée et tracez y la forme géomé­trique de votre choix en suivant les lignes. Cette forme repré­sente votre terri­toire. Person­nel­le­ment je joue­rai avec un carré de 20×20, parce que c’est plus simple à retrans­crire ici.

    Nous allons y placer des antennes et indiquer dans chaque case la force des ondes qui la traverse. Arbi­trai­re­ment nous fixe­rons que la récep­tion décroit de 1 par case, et que en dessous de 4 j’ai une zone blanche, avec une récep­tion trop mauvaise pour être accep­table.

    Pour commen­cer placer une antenne, où vous voulez, de la force que vous voulez, de façon à couvrir tout votre terri­toire. Dans ma grille mon antenne doit avoir une force de 24 pour tout couvrir ; les forces moyennes et médianes sont de 14, ce qui est assez élevé ; et seul 15% de mon terri­toire a une force infé­rieure à 10.

    Tentez main­te­nant le même exer­cice avec quatre antennes. Mes antennes ont désor­mais une puis­sance maxi­male de 14, c’était la moyenne précé­dente ; cette médiane est désor­mais en dessous de 10 et c’est donc 50% de mon terri­toire qui a une puis­sance raison­nable.

    Si on avance encore à 16 antennes ma puis­sance maxi­male est de 8 et la moyenne descend à 6. Plus on avance et plus la force de tout mon terri­toire tendra à être homo­gène et se rappro­chera du seuil de couver­ture avec une puis­sance de 4. C’est un aperçu de ce que donne­rait un terri­toire où chacun aurait sa propre antenne person­nelle.

    Loi en carré inverse

    Notre première simu­la­tion est très opti­miste par certains aspects parce qu’en réalité l’in­ten­sité évolue en carré inverse de la distance. Ça veut dire que quand on multi­plie par deux la distance à l’an­tenne, l’in­ten­sité du rayon­ne­ment est divi­sée par quatre.

    Je vous propose de refaire nos exer­cices précé­dents avec cette règle. Vous allez voire qu’on se retrouve vite avec des chiffres fantas­tiques dès qu’on est obli­gés de placer une antenne un peu loin. Dans ces condi­tions placer une seule antenne ou même seule­ment quatre devient quasi suici­daire si on croit à la noci­vité des ondes.

    La moindre antenne en moins c’est une puis­sance décu­plée sur toutes les antennes à côté. Sauf à croire que vous serez toujours en extré­mité des couver­ture, vous avez même poten­tiel­le­ment inté­rêt à avoir une nouvelle antenne relai chez vous plutôt qu’une super antenne légè­re­ment plus loin.

    Autant vous dire qu’a­vec ces règles, une femto­cell chez vous a une inten­sité tota­le­ment insi­gni­fiante par rapport aux antennes relais globales, parce qu’elle a une portée qui se limite à quelques mètres. Par contre le moindre espoir d’uti­li­ser moins l’an­tenne géné­rale implique un gain qui fait passer l’in­ten­sité de la femto­cell pour un verre d’eau dans l’océan.

    Du télé­phone portable

    Amusons-nous encore plus. Juste­ment à cause de cette rela­tion entre l’in­ten­sité du rayon­ne­ment et la distance, le signal de votre télé­phone portable en commu­ni­ca­tion contre votre oreille est bien plus problé­ma­tique que tout ce que vous rece­vez de l’an­tenne relai.

    Cela veut bête­ment dire qu’en­core une fois, tant qu’elle n’est pas dans votre baignoire, ajou­ter une antenne relai proche de chez vous tend plutôt à faire bais­ser les risques liés aux ondes. Votre télé­phone aura besoin d’émettre bien moins fort pour rejoindre cette antenne, et c’est surtout ça qui importe pour les risques sani­taires.

    Plus prag­ma­tique, utili­ser un kit main-libre filaire, avec le télé­phone accro­ché à votre cein­ture relié à un écou­teur-micro, vous épar­gnera bien plus que toute réflexion sur le posi­tion­ne­ment des antennes relai.

    En s’ap­pro­chant de la réalité

    Certes, la réalité est plus complexe. Il faut jouer sur les fréquences pour que les signaux ne se recouvrent pas, compo­ser avec le rayon­ne­ment des antennes qui est sous forme d’oreilles de Mickey voire direc­tion­nel et pas forcé­ment uniforme. C’est un travail diffi­cile qui explique que la couver­ture puisse sembler aléa­toire ou impar­faite à certains endroits.

    Certes aussi, chacun préfère les voir chez son voisin proche que sur son propre toit. Cepen­dant, dans tous les cas, multi­plier les antennes permet d’en dimi­nuer les puis­sances et globa­le­ment d’as­su­rer une meilleure couver­ture pour moins de pres­sion élec­tro­ma­gné­tique.

    Nos opéra­teurs ont trop voulu écono­mi­ser sur les coûts et garder un réseau fina­le­ment assez faible en antennes. Les voilà pris à leur propre jeu désor­mais quand les asso­cia­tions locales veulent faire tomber les antennes ou bloquent les nouveaux projets : Non seule­ment on arrive à satu­ra­tion mais pour couvrir tout le monde on s’oblige à utili­ser des inten­si­tés qui renforcent les anti-ondes.

    De la dange­ro­sité de tout cela

    Rien ici n’af­firme que ce niveau d’onde est dange­reux, ou au contraire insen­sible. Je peux comprendre qu’on refuse d’avoir des antennes dans les crèches, ou au dessus des endroits les plus fragiles. Par contre, partout ailleurs, pitié, encou­ra­gez plutôt les antennes, ou alors soyez cohé­rents et mili­tez pour l’ex­tinc­tion totale des ondes radio.

    Entre temps, impo­ser donner de la publi­cité aux puis­sances émises par les télé­phones portables et mili­ter pour les kits main-libre filaires a bien plus d’im­pact. C’est juste­ment ce qu’a imposé notre gouver­ne­ment et je ne peux que m’en féli­ci­ter.

    De ce qu’il est possible de faire

    Un seuil à 6 voire 0,6 V/m pour la puis­sance des antennes est tout à fait envi­sa­geable – et c’est d’ailleurs fait dans d’autres régions en Europe – à condi­tion de densi­fier le réseau. Cela impose de réels inves­tis­se­ments aux opéra­teurs mais ils s’y retrou­ve­ront en ayant un réseau qui suppor­tera bien plus de trafic. Ils affirment que la satu­ra­tion du réseau actuel est leur problème majeur, donnons leur des armes pour le résoudre.

    Cela impose aussi une compré­hen­sion des anti-ondes pour bloquer les antennes de forte puis­sance mais aussi pour faci­li­ter l’im­plan­ta­tion de celles à faible puis­sance. Cela  implique de passer d’un débat passion­nel qui rassemble faci­le­ment les foules à un débat tech­nique auquel personne ne pige rien. Diffi­cile, surtout que certains risques de perdre la face quand on se rendra compte qu’ils ont milité à l’in­verse de leurs inté­rêts.

    Tout cela demande un cadre régle­men­taire auda­cieux et volonté poli­tique forte. Autant dire que je ne retiens pas mon souffle. Entre temps on a un joli jeu perdant-perdant, avec des puis­sances de  8 à 80 fois celles que je viens de citer.

  • Où doit-on mesu­rer la capa­cité réseau

    Nos FAI tiennent comme à la prunelle de leurs yeux à leur obli­ga­tion de moyen, par oppo­si­tion à une obli­ga­tion de résul­tat. Cette obli­ga­tion de moyen a du sens quand on parle de ques­tions tech­niques où les respon­sa­bi­li­tés sont multiples et où rien n’est tout blanc ou tout noir.

    Toute­fois, pour qu’une telle obli­ga­tion de moyen fonc­tionne, il faut être capable de l’éva­luer. À défaut on conti­nuera à avaler des publi­ci­tés pour du 24 ou du 100 Mb/s alors que la connec­ti­vité vers Youtube et les autres four­nis­seurs de contenu est trop mauvaise pour arri­ver à quoi que ce soit sur 5 Mb/s.

    Le FAI ne contrôle pas tout l’In­ter­net

    Stéphane Bortz­meyer pose les bonnes ques­tions. Mesu­rer le débit réel vers l’ex­té­rieur est diffi­cile. « Le FAI ne contrôle pas tout l’In­ter­net » et ne peut garan­tir une bande passante de bout en bout.

    Je me permets de tout de même d’ar­rê­ter là l’exo­né­ra­tion de respon­sa­bi­lité. Le FAI ne contrôle pas les débits une fois sorti de son réseau, mais il contrôle tout à fait à quel nœud ou quel opéra­teur de tran­sit il fait tran­si­ter ses données. Charge à lui d’uti­li­ser un nœud ou un opéra­teur effi­cace. Parfois le FAI n’a réel­le­ment aucun contrôle, mais parfois ça peut ne tenir qu’à chan­ger de route.

    Mais il n’est pas impuis­sant non plus

    Si ça ne suffit pas, l’obli­ga­tion de moyen c’est aussi de mettre en œuvre un peering raison­nable et bien dimen­sionné avec les gros four­nis­seurs de conte­nus, ou une connec­ti­vité plus directe. Parce que fina­le­ment je le paye bien pour ça mon FAI.

    Il est un peu trop facile de se déchar­ger « ce n’est plus ma respon­sa­bi­lité une fois sorti du réseau ». Si effec­ti­ve­ment le FAI ne peut contrô­ler toutes les routes, la connec­ti­vité vers les réseaux prin­ci­paux, vers les peerings, vers les four­nis­seurs de conte­nus majeurs, ne lui est pas étran­gère.

    Faire quelques mesures

    Plus exac­te­ment si ça rame vers Youtube, Gmail, Daily­mo­tion, Megau­pload, Face­book, Flickr, TF1 ou je ne sais quel service majeur, votre FAI en est très souvent respon­sable. Si ça rame ailleurs chez votre FAI mais pas celui d’à côté, même sanc­tion. Enten­dons nous bien, il ne s’agit pas de dire que le FAI est respon­sable d’un choix du four­nis­seur de contenu, mais il est respon­sable de ne pas faire remon­ter le problème, de ne pas utili­ser ou faire utili­ser des routes alter­na­tives, de ne pas mettre en place un peering ou une connec­ti­vité directe, etc.

    Faire des mesures de latence et débit vers une cinquan­taine de gros héber­geurs four­nis­seurs de conte­nus, ça ne suffit pas (il ne faudrait pas segmen­ter Inter­net avec les gros d’un côté et les petits de l’autre) mais ça ne coûte­rait pas si cher et ça donne­rait déjà des résul­tats inté­res­sants.

    En ajou­tant pas mal de tests de petits sites, variables chaque mois, en rele­vant les FAI qui ont une connec­ti­vité sensi­ble­ment infé­rieure vers un réseau ou un autre, on fini­rait par donner une bonne image de ce qu’offres les FAI, non ?

    Respon­sa­bi­lité, faute et mesure

    Il faut tout de même noter que si je parle de respon­sa­bi­lité, je ne parle pas de « faute ». Il ne s’agit pas de dire que tel ou tel FAI est en faute. Par contre, du point de vue utili­sa­teur, avoir un retour sur ce que sera la réalité de sa connexion me parait bien indis­pen­sable.

  • OVH, ADSL, et VDSL

    Si vous suiviez mes inter­ro­ga­tions, j’ai fini par choi­sir une ligne ADSL Free.fr. Il s’agit pour moi d’évi­ter les problèmes qu’on m’a rapporté avec la Live­box d’Orange et d’es­pé­rer avoir une fibre par SFR ou Free avant un an. C’est l’en­ga­ge­ment d’un an obli­ga­toire pour l’offre Orange qui a emporté le choix : Impos­sible de tester et chan­ger d’opé­ra­teur ensuite, ou impos­sible de bascu­ler si besoin vers Free.fr quand l’offre Free Mobile sera là. Là je me réserve la possi­bi­lité de chan­ger d’avis, quand je le souhaite.

    Éligi­bi­lité, le modèle OVH

    Aujourd’­hui j’ai pu tester l’éli­gi­bi­lité OVH. Fran­che­ment la page de détails tech­nique est un modèle du genre :

    Déjà on me redonne mon adresse exacte, étage et cage d’es­ca­lier comprise. Ça n’a l’air de rien mais vu que j’em­mé­nage, avoir confir­ma­tion que je donne bien le numéro des anciens loca­taires et pas celui d’un voisin, c’est indis­pen­sable. Cette infor­ma­tion m’a manquée dans mon inscrip­tion Free.fr.

    Ensuite on ne me promet pas 24Mb/s théo­riques, on me donne mon débit estimé pour ma ligne, calculé à partir de la distance au NRA. Mieux, on me donne le down­load mais aussi l’upload, le tout avec des latences esti­mées pour diverses desti­na­tions. Sans rire, quand je demande une connexion Inter­net, pourquoi tous les FAI ne me donnent pas tout ça ? C’est pour­tant ce que j’achète.

    Comme on reste sur des détails geeks, tout ça est joli­ment présenté. En plus des détails d’at­té­nua­tion, distance, section des câbles, j’ai des graphiques de débit en fonc­tion de la distance et de la tech­no­lo­gie, des cartes où sont repré­sen­tés les chemins ente mon domi­cile et le NRA, entre le NRA et le POP OVH, et un schéma réca­pi­tu­lant les distances en jeu. Peut être inutile mais j’ai l’im­pres­sion d’avoir en face de moi quelqu’un de trans­pa­rent sur ce qu’il fait et ce qu’il vend. C’est indé­nia­ble­ment posi­tif.

    Fran­che­ment, allez-voir. Je ne comprend pas pourquoi les FAI se sont éver­tués à faire dispa­raître les débits réels esti­més au lieu d’en­ri­chir ces infor­ma­tions comme le fait OVH.

    Et en VDSL2 ?

    Bon, après on me donne mon débit théo­rique VDSL2+ et là ça met une bonne claque. J’ai beau­coup entendu dire que même si l’in­ves­tis­se­ment était faible, ça risquait d’in­ci­ter les FAI à s’en conten­ter et frei­ner leurs inves­tis­se­ments fibre.

    OVH m’in­dique que le débit VDSL2 serait de 80 Mb/s en descente et 31 Mb/s en montée. Autant dire que c’est plus inté­res­sant l’offre fibre Orange actuelle (100/10, avec un fair use).  Seule la latence risque de rester nette­ment moins bonne qu’a­vec la fibre.

    Certes, une fibre ça peut aller bien plus loin, mais soyons francs, l’offre Orange ne risque pas de sortir des débits actuels avant un bout de temps. Nous parlons d’an­nées. Entre temps, sur la distance qui est la mienne, le VDSL est tout aussi inté­res­sant.

    Et du coup j’ai du mal à comprendre, si ça permet aux opéra­teurs de réali­ser le fibrage tranquille­ment, avec une prio­rité aux longues distances, est-ce si mal de penser au VDSL2 sur les petites distances en atten­dant le fibrage complet ?