Notre justice est folle. Bon, celle des US, mais ça aurait pu se passer ici.
No-ip est un service qui permet à des internautes de donner un nom public à leurs machines personnelles pour pouvoir y accéder facilement depuis Internet. On parle de millions d’utilisateurs.
Ce service a été anecdotiquement utilisé par des logiciels malveillants pour infecter des machines sous Microsoft Windows.
Réaction : Microsoft s’adresse à la justice pour faire cesser le problème (plus exactement ici : filtrer les accès malveillants et réussir à en tracer l’origine). La justice lui délègue totalement la gestion des noms de domaine No-ip correspondants.
Bien entendu Microsoft n’a pas eu l’infrastructure suffisante pour gérer le trafic et le service No-ip s’est partiellement écroulé, laissant les utilisateurs dans le noir.
À vrai dire tout se serait bien passé que le scandale serait quand même là. La justice vient de donner à Microsoft, qui n’est pas ciblé par les attaques informatiques mais uniquement concerné indirectement parce que ça exploite des failles de son OS, l’accès aux noms de domaine d’une société tierce à qui on ne reproche rien.
Avec ça Microsoft contrôle (et ici a fait s’écrouler) le business d’un tiers, peut en tracer le volume, les clients, les services utilisés, etc. Sans compensation aucune.
Tout ça sans même avoir contacter No-ip pour tenter de résoudre le problème en collaboration initialement.
Je note ici autant pour ceux qui ne connaissent pas que pour mon moi de plus tard : Autoprefixer, qui prend une CSS classique et qui ajoute les versions préfixées utiles pour les différents navigateurs.
Ça ne le fait pas bêtement, genre pour flexbox ça sait gérer les différences de syntaxes. Bref : utile.
Le web a un historique avec beaucoup de mises en page fixes. On allait jusqu’à indiquer en bas de page avec quel taille et quelle résolution d’écran il fallait pour consulter le site dans les meilleures conditions.
C’était déjà difficilement tenable avant, mais l’arrivée des tablettes et smartphones a totalement changé la donne. Depuis, c’est le terme « responsive web design » qui représente l’état de l’art : des mises en page dynamiques qui s’adaptent à toutes les tailles d’écran et une majorité des tailles de caractères.
Photo sous licence CC par Jean Cotchin
La littérature est en train de vivre une bascule similaire avec le numérique : Les livres, au moins la littérature classique, s’adapte à l’écran et à la taille de caractères choisies. Dans le format EPUB on parle de reflow.
Là où je suis perplexe, c’est devant l’arrivée des EPUB à mise en page fixe. D’une part parce qu’ils ont tendance à bêtement remplacer le PDF, sans réelle valeur ajoutée. Même contraintes, moins de compatibilité avec les lecteurs actuels, pas vraiment plus standard vue le nombre de directives propriétaires.
Je reste heureux de savoir que c’est du zip + html + css, parce que ça s’embarquera plus facilement sur le web dans le futur, mais je ne peux m’empêcher d’être dubitatif sur les raisons pragmatiques qui peuvent pousser à remplacer du PDF par de l’EPUB à mise en page fixe.
Photo sous licence CC par antjeverena
Mais surtout j’ai l’impression que l’édition va encore une fois à rebours de l’histoire du web. Pourquoi vouloir faire de la mise en page fixe ?
Des contenus graphiques, parfois extrêmement complexes, le web en a plus d’un, et les solutions pour les vues adaptatives existent. Parfois ce n’est pas simple, souvent ça demande un véritable travail de création, mais on y arrive.
On me cite Apollinaire, et l’adaptation est ici extrêmement limitée car l’objectif est de respecter une oeuvre ancienne qui ne bougera pas. C’est un exemple qui reste toutefois exceptionnel.
Des livres photo, des livres techniques, des livres pour enfants, des livres illustrés, des guides de voyage… tout ça existe sur le web, en adaptatif. Les deux seules raisons que je vois pour faire de la mise en page fixe sont le coût et la compatibilité.
Sauf que si on ne veut pas investir dans la création numérique – ce qui me semble être un problème non seulement pour l’avenir mais aussi pour le présent proche vu que le numérique représente déjà plus de 30% du livre aux États Unis – et qu’on souhaite une compatibilité maximale… le PDF convient très bien. En fait il convient bien mieux.
Et même là, une majorité de ce que je vois en mise en page fixe serait assez « simple » – toutes proportions gardées – à faire en adaptatif. Il n’y a qu’à… C’est d’autant plus vrai qu’on s’oriente vers un avenir où les lecteurs EPUB sont basés sur des navigateurs web tout ce qu’il y a de plus modernes, en fait la même base que Chrome ou Safari.
Il y a même probablement parfois moyen de faire de l’adaptatif qui dégrade très bien sur les lecteurs qui ne savent relire que du bête texte. Tout reste encore à inventer.
Photo sous licence CC par Len Matthews
En fait il y a une troisième raison que je vois très bien : Les éditeurs ont toujours pensé des mises en page fixes jusqu’à présent, des graphismes qui ne souffrent d’aucune adaptation après impression, que tout le monde voit exactement pareil.
C’est un vrai changement de paradigme qu’il faut pour accepter des adaptations, des compromis, que ce ne sera pas exactement pareil partout. Ce changement d’état d’esprit a mis longtemps à s’imposer sur le web. C’est juste dommage qu’on recommence à zéro sur le livre, voire un peu en dessous de zéro.
To better focus our efforts and to align them with the needs of our global member base, we will be retiring the public API program. Effective on November 14, 2014, public API developers will no longer be able to access Netflix content. All requests to the public API will return 404 errors.
[…]
Thank you to all of the developers who have participated in the ecosystem throughout the years.
Vous nous avez bien servi, maintenant nous capitalisons sur ce que vous avez créé et qui nous rémunère le plus et nous vous coupons l’accès au reste. L’écosystème ne nous intéressait que le temps qu’on gagne une position dominante.
Pour les chercheurs, l’informatisation devrait surtout porter sur des emplois peu qualifiés. Ils n’ont réalisé aucune estimation pour évaluer le nombre d’emplois touchés par l’automatisation dans les années à venir, mais ils concluent leur prédiction en expliquant que les employés peu qualifiés et les professions à bas salaires qui devraient être les plus touchées devront être réaffectés à des tâches qui ne sont pas sensibles à l’informatisation, comme celles nécessitant de l’intelligence créative et sociale
L’automatisation des tâches et l’avancement des technologies fait disparaitre les travaux les moins qualifiés au profits de travaux plus qualifiés mais plus rares ?
Si dans les 20 dernières années du XXe siècle nous avons connu un exode des emplois les moins qualifiés vers des emplois qualifiés et très qualifiés, la perte d’emploi se fait désormais dans tous les domaines de compétences.
Et même quand ce n’est pas le cas, ce n’est pas forcément une bonne nouvelle
Si l’automatisation peut améliorer le travail, le rendre plus stimulant et intéressant, une machine trop sophistiquée peut aussi générer de la déqualification, transformant un artisan compétent en opérateur de machine modérément qualifié.
Mais surtout on a de moins en moins besoin de réfléchir. D’une part grâce à l’aide de l’informatisation, d’autre part parce que la réflexion se concentre aux mains de quelques uns.
Les travailleurs de la connaissance sont eux-mêmes en train de se déqualifier, ressemblant de plus en plus à des opérateurs informatiques, estime Carr.
On peut facilement mettre ça en relation avec la concentration des richesses et du capitalisme forcené. Moins de très riches, qui contrôlent et exploitent le travail des autres. Ceux qui restent deviennent opérateurs de systèmes automatisés ou sur des tâches manuelles trop complexes à automatisées (par des ouvriers localisées dans des pays à très bas coûts).
Le graphique est éclairant. On a de moins en moins d’emplois qui nécessitent de réfléchir, et on chute à un niveau exceptionnellement bas.
Le pire c’est que nos politiques continuent à faire perdurer le mythe des avancées technologiques qui poussent vers des postes plus qualifiés, alors qu’en réalité on réduit surtout le nombre d’emploi, en les écrasant tous plus ou moins vers de l’exécution intellectuelle, du contrôle de processus.
En fait, depuis les années 2000, la concurrence dans les emplois manuels peu qualifiés s’est accrue et les travailleurs plus qualifiés ont pris la place des moins qualifiés pour des emplois eux-mêmes moins qualifiés.
La politique du « avec un meilleur diplôme vous aurez un emploi » ne fait que reporter le problème. L’important est juste d’avoir un meilleur diplôme que les autres, même si la haute compétence est inutile. On en est à demander le bac ou des études supérieures pour tout, du personnel de ménage jusqu’au jardinier en passant par l’ouvrier à la chaîne. Le pire c’est qu’en plus on spécialise fortement les diplôme, rendant les gens très difficile à redéployer sur d’autres missions.
Je n’ai pas de solution au problème de déqualification des emplois. Si ce n’est arrêter de s’y soumettre, profiter du besoin moindre pour réaliser tu travail libre, sur des tâches qui sont et plus valorisante et plus utiles à la société. Pour ça le revenu de base est une piste.
La poursuite du tout emploi n’amène de toutes façons à rien, sauf le bonheur des 0,1% qui concentrent capital comme capacité de décision.
Sans changements de notre organisation économique, seuls les propriétaires des robots et des algorithmes, et quelques artistes vedettes et fonctionnaires réussiront à gagner leur vie. Tendance déjà manifeste quand on voit se creuser l’écart entre les pauvres et les riches. Pour nous sortir de cette impasse, nous devons bannir l’usage du mot chômage et instaurer un revenu de base inconditionnel.
On note déjà par le titre que la France n’a pas pour objectif de fournir un service meilleur ou aussi bon, ni de profiter d’une activité économique nouvelle, mais uniquement de contrer et empêcher quelque chose de neuf, et d’américain.
Déjà ça part mal, et quand on aura dépassé ce stade, alors peut être qu’on pourra parler de French Tech, d’innovation et de mutation numérique.
Il [le CNC, centre national du cinéma, organe géré par le gouvernement] préconise des rapprochements pour aboutir à des offres visant l’audience la plus large possible ou un public plus restreint, dites offres de niche, afin de redynamiser le secteur. Objectif : éviter que Netflix ne prenne une avance trop forte par rapport aux acteurs français.
[…]
La première option des pouvoirs publics était la plus évidente : favoriser un rapprochement, dans ce domaine, entre Orange et Canal+, deux des trois principaux acteurs de la VoD en France (avec TF1). Cette option pouvait même apporter une solution au cas Dailymotion. Mais les négociations ont échoué (lire ci-dessous). Le CNC a donc identifié plusieurs entreprises qui pourraient servir de tête de pont face à Netflix. AlloCiné figure en tête.
Bref, ça se confirme, et la méthode prévue c’est créer un mastodonte organisationnel. La seule chose qu’on est capable de voir dans Netflix c’est la taille. Parler d’expérience utilisateur, de cible différente, d’approche client ? Certainement pas. On va juste créer une entité qui rapproche quelques énormes entreprises et croire que d’un coup ça va apporter une solution. Comme si c’était le problème…
Quand c’est qu’on met des gens qui réfléchissent à la tête des subventions gérées par l’État ?