Je dis custom, mais si vous avez quelque chose qui convient parfaitement sur le marché, ça m’intéresse.
Usage:
Serveur de fichiers
Interface web à la NextCloud pour ponctuellement chercher un fichier dans les archives
Interface réseau local (AFP, SMB) pour ponctuellement déverser de gros volumes pour archivage, lire un film, ou chercher un ficher dans les archives
Synchronisation automatique type Nextcloud de certains répertoires avec les laptops mac de la maison ; avoir une synchronisation sélective est un indispensable
Serveur de sauvegarde
Faire tourner des scripts type getmail qui vont synchroniser localement des boites emails en ligne de plusieurs (dizaines) de Go
Faire tourner des scripts type rclone qui vont synchroniser localement des stockages de photo ou de fichiers en ligne sur plusieurs centaines de Go
Sauvegarde automatique des photos qui viennent des téléphones.
Faire tourner des scripts pour synchroniser localement d’autres types de fichiers en ligne, par exemple des dépôts git.
Faire tourner des scripts et potentiellement des navigateurs headless pour aller se connecter à différents services en ligne et y rapatrier les données personnelles en local.
Faire tourner du Borg ou similaire pour sauvegarder plusieurs To sur des serveurs en ligne.
Optionnellement: Servir de stockage pour TimeMachine
Serveur local
Serveur Vaultwarden pour les mots de passe
Serveur IMAP pour certaines boites emails d’archive
Serveur Webcal/Caldav
Streaming musique / mp3
Parcours des galleries et archives photos
Potentiellement dans le futur, servir de serveur domotique
Bruit: Je n’ai pas de pièce isolée ou faire tourner ça. Le silence au repos est donc un indispensable. Le fanless serait idéal, et sinon plutôt des gros ventilateurs qui tournent peu. Dans tous les cas, ça implique une consommation réduite au repos.
Performance: À l’opposé, quand je déverse plusieurs dizaines de Go ou que je passe sur la sauvegarde incrémentale de plusieurs To, j’aimerais de bonnes performances en lecture/écriture. Je veux éviter les CPU faméliques et chipset de carte mère sans vraie bande passante, quitte à payer plus cher.
Stockage: Aujourd’hui j’ai un SSD SATA 2.5″de 8 To mais ça ne tiendra pas sur le long terme. Vu que désormais les NVMe ne sont pas plus chers et bien plus rapides, j’imagine qu’à terme ça sera plusieurs NVMe plus potentiellement un gros disque mécanique 3.5″ pour ce qui prend énormément de place mais qui est de moindre importance.
Le setup idéal serait donc au moins 4 ports NVMe et 2 baies SATA 3.5″. La réalité c’est que si j’ai 2 ports NVMe et 1 baie SATA 2.5″ ou 3.5″, je peux m’imaginer faire en scénario minimum.
J’ai craqué et j’ai commandé l’écran (Dell U4025QW) il y a deux mois.
Je veux rédiger ce billet depuis les deux premières semaines mais je n’ai pas su comment le tourner. Ça sera donc un peu brouillon.
Je regrette d’avoir tant hésité
Je crois que c’est le ressenti principal.
Le Dell U4025QW
Changer ses habitudes est difficile. J’ai eu des setups sans écrans externes, avec un 24″, avec un 32″, avec deux 24″ en paysage, avec un en paysage et un en portrait. J’ai même pu tester un 34″ ultra-large. À chaque fois je me retrouvais régulièrement sur l’écran du macbook comme écran principal. Les écrans secondaires restaient accessoires. Un vrai confort mais accessoire.
Ici il ne m’a pas fallu une semaine pour avoir envie de fermer le macbook entièrement, et je le garde fermé depuis.
De l’espace horizontal
Je voulais de l’espace horizontal, pouvoir mettre deux ou trois fenêtres côte à côté. Ça devenait d’autant plus pertinent pour la programmation où l’IA prend un second espace complet à côté de l’espace pour le code.
Les fenêtres sont un peu plus étroites que d’ordinaire mais j’en mets bien trois. À vrai dire, surtout côté web, j’ai l’impression d’avoir surtout perdu de l’espace vide. Je n’affiche rien de moins.
C’est aussi parfait pour l’édition photo, qui était mon troisième usage. Lightroom permet d’afficher ma photo entière, en plus des panneaux de droite et de gauche.
Le pari c’était de trouver le plus large possible mais sans que ça ne devienne inutile ou gênant. J’ai l’impression que c’est réussi.
L’écran fait pas loin de 90 centimètres de large, 30% de plus qu’un 32″. Je ne vois déjà pas les deux côtés sans bouger un peu les yeux. Peut-être est-ce le temps de m’habituer, mais j’ai l’impression que plus large serait non seulement inutile mais probablement contre-productif, à me faire tourner la tête de droite à gauche.
De l’espace vertical
J’ai hésité avec des écrans beaucoup moins chers en 32:9ème. Je craignais d’avoir un ratio avec trop peu de hauteur.
J’apprécie d’avoir pas mal de contexte sur une documentation ou sur du code, et de pouvoir travailler une photo en pleine taille. C’est aussi pratique sur les feuilles de calcul.
Ce que je n’avais pas anticipé c’est les visio conférences où je vois le partage d’écran en taille appréciable malgré l’espace pris en haut et en bas.
J’ai un peu moins de 40 centimètres en hauteur, l’équivalent d’un 32″. Là aussi c’est pari réussi, même si j’aurais peut-être pu me contenter de moins.
Des pixels, plein de pixels
J’ai écarté beaucoup de précédent modèles parce qu’ils avaient une densité de pixels assez faible. Je ne vois pas les pixels, mais le ressenti de qualité est flagrant entre un écran classique 96–110 ppi et un écran double densité dans les 215–225 ppi (les apple-fan parleront de retina).
Ici on est à 140 ppi. Les intermédiaires c’est un peu risqué parce que la mise à l’échelle n’est plus un simple facteur 2. C’est un compromis, mais un écran large en 220 ppi ça n’existe pas, et ça demanderait un nombre de pixels que le thunbderbolt 5 de mon macbook ne saurait pas gérer.
J’ai l’impression que c’est réussi. Sur macos, betterdisplay permet de profiter de la mise à l’échelle qualitative. Je dois avouer qu’il m’arrive toutefois exceptionnellement de le passer à la résolution native.
De la courbure
La courbure c’est le côté qui m’a fait peur. J’ai vu un 34″ droit et je sais que c’était pénible. D’un autre côté les écrans gaming avec leur courbure très prononcée me semblaient vraiment exagérées, surtout pour de l’édition photo.
Bref, là j’ai une courbure légère, qui se fait oublier mais qui me semble pertinente.
De la luminosité et du contraste
C’est peut-être le seul point où j’aurais aimé plus. La luminosité est correcte mais je suis souvent proche des 100%. Je vois la différence avec l’écran du macbook et je n’aurais pas craché sur plus.
Là aussi c’est un compromis. Des écrans de cette taille avec plus de luminosité ça ne court par les rues. Il y aura peut-être un 40″ en OLED dans quelques années mais il y aura toujours une raison d’attendre quelques années de plus, et je suis satisfait de ce que j’ai ici.
Utilisation pratique
J’ai le laptop branché en USB-C, pro ou perso suivant le moment de la journée, fermé sur le côté. La charge est intégrée.
Le clavier et le trackpad sont branchés par cable sur les deux ports USB-C de la face avant. J’aurais préféré les garder en bluetooth mais les brancher fait qu’ils passent automatiquement sur le laptop qui est connecté. La webcam est branchée sur le hub en face arrière et passe elle aussi automatiquement sur le laptop que je connecte.
Le vrai logiciel indispensable c’est betterdisplay, pour la mise à l’échelle comme dit plus haut, mais aussi parce que ça permet d’intercepter les commandes de luminosité et de volume du clavier pour les transmettre à l’écran.
Plusieurs postes
J’ai aussi découvert le partage du clavier et du trackpad entre mac et c’est juste le bonheur. Les deux mac s’auto-détectent tout seuls. Je peux accéder au second laptop comme si c’était un écran supplémentaire, et interagir avec. Ça gère même le copier/coller de façon transparente entre les deux. Quand j’ai besoin de faire un peu de pro au milieu d’une session perso, ou le contraire, il suffit que j’ouvre le laptop sur le côté et c’est parti.
Ça plus handsoff (pour transférer la tâche en cours) et airdrop (pour transférer les fichiers), l’écosystème intégré est quand même plus que confortable.
Tout est transparent, et c’est parfait pour moi.
Le Dell a aussi un hub avec KVM intégré pour utiliser deux sources, un seul écran un seul clavier mais je n’ai probablement pas le droit d’installer un outil qui intercepte clavier et trackpad sur mon ordinateur pro. J’ai fait sans et pour l’instant je ne vois pas trop ce que ça m’apporterait de plus.
Ok, mais est-ce que ça vaut le coup ?
Si on oublie le prix, c’est un grand oui. Je ne vois pas de meilleur choix sur le marché pour une utilisation mixte édition-bureautique.
Il reste que c’est aussi un des plus chers du marché. J’ai la chance de l’avoir pris en promotion et sur du professionnel donc avant taxes et tva, mais même ainsi ça reste cher. On a des écrans larges pour beaucoup moins cher que ça, avec un peu de compromis.
Pas pour le jeu ultra-rapide ni pour le HDR de précision
Et parce qu’on m’a interrogé là dessus : L’écran monte en 120 Hz mais le temps de réaction des pixels n’est pas très bon.
Ce n’est pas un bon écran pour faire du jeu ultra-rapide genre shoot-them-up. Pour des jeux plus lents, genre un factorio, je ne vois rien à y redire (et l’espace disponible est vraiment agréable).
De même, si le rendu des couleurs est correct en HDR, il y a peu de zones distinctes pour la luminosité. Ce ne sera pas le meilleur pour des films en HDR ou du HDR de précision.
Bref, bureautique et édition plutôt que jeux et films. On ne peut pas avoir un écran qui fait tout.
Je sais que je vais m’attirer les foudres de certains mais je n’aime pas ça. C’est pour moi une mauvaise méthode, inutile, toxique, qui ne fonctionne que par deux ressorts :
On monte la tête aux étudiants pour leur faire croire que tout ça est extraordinaire
Quand on subit un rituel de passage, on a tendance à y attribuer tout le positif (c’est ce qui fait que tous les bizutages sont promus par les promotions précédentes).
Non des moyennes semaines weekend inclus à plus de 10h par jour ce n’est pas pertinent pour l’apprentissage. Ce n’est même pas sain pour la santé des étudiants.
Non on n’apprend pas autant en une journée qu’en un semestre. Au bout de deux semaines, 14 jours vu qu’il travaille le week-end, croit-il vraiment avoir appris autant qu’en 7 ans d’études spécialisée ou même 1 an et demi si on parle de mois plutôt que de semestre ?
Vous me direz que c’est juste de l’exagération. Mon ressenti après avoir croisé des étudiants passés par la piscine dans cette école et dans d’autres, c’est aussi et surtout une culture où on leur faire croire que ces passages les rend au-dessus de tous les autres.
Deux semaines de pratique pour faire une concaténation de deux mots, je connais des formations de reconversion très classiques qui n’ont rien à y envier, mais sans le côté survivaliste.
Firefox ce n’est pas juste un navigateur. Sans Mozilla et Firefox, nous n’aurions pas le web libre d’aujourd’hui. Sans Mozilla et Firefox nous n’en auront peut-être plus demain, ou plus sous cette forme. Rien que ça.
La situation pré-1998
Pour ceux qui n’ont pas vécu la période pré-2005, Internet c’était essentiellement Netscape, AOL et Microsoft. Oui, je remonte loin mais c’est important.
Si les standards du web existaient déjà, il y avait beaucoup de choses non spécifiées, beaucoup d’anomalies propres à chaque navigateur, et beaucoup d’extensions propriétaires. Faire un site compatible avec plusieurs navigateurs demandait un effort particulier, voire un double développement.
Netscape c’était le navigateur dont est issu Mozilla puis Firefox. Jusqu’en 1995–98, tout le monde utilisait Netscape, ou presque.
Microsoft a pris le pas entre 1996 et 1998 avec l’arrivée de Windows 95 Plus et de Windows 98. Ils ont fourni Internet Explorer par défaut comme navigateur, intégré à l’OS. À l’époque on parlait même d’avoir une page web à la place de l’image de fond d’écran, et des widgets web pour avoir des actus, la bourse, la météo, etc. Tout lançait Internet Explorer sans alternative, possible, y compris la mise à jour de Windows lui-même.
La guerre des navigateurs
Netscape a lancé la suite de navigation Mozilla en open-source. AOL a ensuite racheté Netscape pour avoir son propre navigateur basé sur Mozilla.
Malheureusement Microsoft a profité de sa position dominante sur Windows pour non seulement pré-installer Internet Explorer partout mais aussi en faire une pièce incontournable.
À l’époque la mise à jour de Windows se faisait par Internet Explorer. Microsoft incitait même à remplacer le fond d’écran par une page web (gérée par Internet Explorer) et des widgets web pour les actualités, la météo, la bourse, etc. Même Apple est passé à Internet Explorer sur les Mac quand Microsoft est entré dans le capital.
La majorité des sites, petits et gros, étaient conçus pour Internet Explorer et compatibles uniquement avec ce dernier. Netscape, seule vraie alternative, n’a pas tenu.
La bataille du web ouvert
Des anciens de Netscape sont restés autour de la partie open-source de Mozilla. Avec le temps est sorti Firefox : ultra-léger (par rapport à Netscape) et ultra-rapide (idem).
On est déjà en 2003–2005. C’est le début de Mozilla (l’association) telle qu’on la connait aujourd’hui.
L’ancien Internet Explorer est mort, le web ouvert a gagné. Firefox a fini par devenir le navigateur majoritaire en Europe.
Il était infiniment meilleur que Microsoft Internet Explorer mais il n’y a pas que ça : On a aussi eu une bataille massive pour le web ouvert, à faire changer de pratique les sites web pour qu’ils respectent les normes et qu’ils assurent la compatibilité. Je me rappelle le web-compat de Mozilla qui interpelait et proposait des correctifs aux sites web un à un.
C’était du militantisme partout. C’est d’ailleurs là que — self-promo — est né Paris-Web.
Les deux se sont nourris. Sans Firefox et Mozilla, le web ouvert n’aurait peut-être jamais vu le jour malgré tous nos efforts. Sans les efforts sur le web ouvert Firefox et Mozilla auraient probablement été des impasses.
Garder le web ouvert
Firefox et web ouvert sont historiquement intrinsèquement liés. C’est pour ça que je dis que Firefox ce n’est pas juste un navigateur.
Aujourd’hui c’est Google Chrome qui a la main et on voit apparaitre le même schéma que par le passé : diffusion par pré-installation, sites qui ne sont parfois conçus ou testés que pour un seul moteur de navigation, abus de position dominante, etc.
La situation n’est pas exactement la même que celle des années 2000 mais elle n’est pas si éloignées que ça.
Il y a plein de navigateurs mais en réalité Brave, Opera, Vivaldi, Internet Explorer et les autres sont des dérivés de Chromium. Chromium c’est la base open source de Chrome, contrôlée par Google.
Le web est définitivement plus ouvert mais du fait de la main mise sur Chromium, Google est quand même en position forte pour faire avancer ce qu’il veut et refuser ce qu’il ne veut pas. Pas mal de sites se basent sur des APIs et extensions présentes dans Chromium mais pas encore ailleurs, ou qui n’ont pas vocation à être présentes ailleurs.
Seule alternative
Pour ne pas laisser l’histoire se répéter, on a besoin d’alternatives.
Une fois qu’on a retiré tout ce qui se base sur Chromium, il reste Safari et Firefox. Les intérêts d’Apple ne sont pas toujours extrêmement différents de ceux de Google. On a besoin d’un acteur qui sort de ces acteurs privés monopolistiques et dominants.
Firefox est seul dans cette situation. Sa survie est juste essentielle pour garder un web ouvert.
Je cherche à ce qu’un script shell reste ouvert comme un démon au lieu de rendre la main après s’être exécuté. Comme un démon, je veux qu’il réagisse en se terminant de lui-même quand il reçoit une demande de SIGTERM.
Ma première approche c’est une boucle infinie avec un sleep.
trap 'quit' SIGTERM SIGKILL
function quit() {
exit 1
}
while true; do
sleep 10
done
Le trap n’interrompt pas le sleep. J’ai mis 10 secondes pour garder une réactivité raisonnable à l’extinction.
Même si un réveil toutes les 10 secondes est probablement insignifiant, quelque chose en moi est quand même gêné et aurait aimé mettre plusieurs heures ici.
Je vois sur le web pas mal d’exemples avec un sleep 1, qui m’interroge encore plus. Quel est le coût réel de ce sleep 10 dans une boucle infinie ?
Certains ont élaboré des solutions pour rendre le sleep interruptible en l’envoyant en tâche de fond :
PID=
trap '[[ $PID ]] && kill "$PID"' SIGTERM SIGKILL
while true; do
sleep 100000 & pid=$!
wait
done
Je vois aussi, et ça m’a l’air simple & smart, des scripts utiliser des readline plutôt que des sleep. Les readline ont la bonne idée d’être interruptibles et de durée infinie tant qu’on n’envoie rien sur stdin.
Dites, les amateurs de shell, quelle est la méthode recommandée pour garder un script ouvert en tâche de fond ? Est-ce qu’il y a une réelle différence entre ces méthodes ou est-ce juste une question de style ?
Je sais collaborer avec des divergences de vision et d’opinion. Je sais assez bien m’aligner sur des décisions en lesquelles je ne crois pas.
J’ai beaucoup plus de mal quand il y a désalignement de valeurs. Là c’est parfois difficile, peut-être plus pour moi que pour d’autres parce que mes valeurs sont ce qui me tient en vie, littéralement.
C’est à la fois une force qui peut me pousser extrêmement loin, et un puis sans fond quand il y a un vrai désalignement persistant. C’est vrai socialement, dans la vie personnelle comme dans la vie professionnelle.
C’est simplement qui je suis.
Avec le temps j’ai ajouté un étage.
Je sais comment interagir avec une personne malveillante, égoïste ou individualiste. Ça me coûte, je fuis ces individus quand je le peux mais, quelque part, je sais sur quoi compter ou quoi ne pas compter.
Des erreurs on en fait tous. Personne n’est parfait, moi pas plus qu’un autre. On porte chacun ses compromis, ses démons et ses contradictions, moi comme les autres. Je le comprends et je l’accepte, peut-être même plus facilement que d’autres.
Je ne demande pas de chevalier blanc parfait. La différence tient souvent à comment on vit avec ses erreurs et comment on avance avec.
Parfois ce ne sont pas des erreurs, ni même des personnes mauvaises, juste des personnes sur qui je ne peux clairement pas compter. À chaque fois que je me suis retrouvé face à cette situation, plus rien ne fonctionne. Ce n’est pas juste que c’est difficile de collaborer, c’est que c’est totalement en dehors de mon fonctionnement intellectuel. Je ne sais simplement plus.
Si ça dure et que la collaboration est incontournable malgré tout, ou que ça aurait un coût pour des tiers, le moindre geste et la moindre décision finissent par devenir très difficiles. Quand la découverte se fait progressivement ou après coup, s’y ajoute un sentiment de trahison de ma confiance qui renforce tout ça.
C’est certainement lié à comment je fonctionne puisque j’ai l’impression que ceux qui partagent mes traits partagent aussi souvent ces biais.
J’ai peur de l’effet barnum quand j’écris ces lignes alors que je sais par expérience que ce que je vis ces situations très différemment de la majorité des autres.
Je ne cache plus mes différences. Si la mode de se dire neuroatypique ou avec des traits autistiques m’agace au plus haut point, au moins elle me permet d’assumer un peu plus facilement mon vécu.
Mes mots ici sont pensés, pesés. Quand je parle de réussir à vivre, à penser, à concevoir les choses, ce ne sont pas des images.
Bref, tout ceci est d’actualité. Ça explique certainement au moins en partie ma santé, la façon dont j’interagis ou justement dont je n’interagis pas, et ce que je suis capable ou pas de faire depuis quelques mois, au niveau personnel comme au niveau professionnel.
Amies et amis, j’espère me reconstruire au fur et à mesure parce que ça m’a fait descendre bien bas. Le dire est déjà une première étape.
J’aurai probablement besoin de vous, de ceux et celles qui voudront bien m’accompagner. Vos messages seront bienvenus, même si je sais que j’en donne bien trop peu de moi-même.
En bon ingénieur j’ai beaucoup poussé l’idée qu’il faut un produit très bien foutu, sans erreur, sans zone d’ombre, performant et que, quand tout ça va, les utilisateurs vont venir tout seuls.
J’ai appris qu’un produit beau avec des erreurs fonctionne mieux qu’un produit moche sans erreurs. C’est contre-intuitif pour moi et pas dans mes attentes mais c’est la réalité du terrain. J’ai appris qu’au-delà du beau, l’expérience utilisateur dans la manipulation des interfaces était une vraie expertise qui faisait toute la différence. J’ai appris que l’adéquation aux besoins métier primait encore plus sur tout ça.
J’ai appris qu’un produit qui répond parfaitement au besoin avec une super expérience utilisateur ne ferait pas le poids face à un produit qui a un bon marketing. C’est agaçant, injuste même, mais c’est la réalité du terrain. S’il faut en vivre, investir dans le business prime même largement par rapport à la qualité intrinsèque.
J’ai vu des boîtes mourir en laissant derrière elles un excellent code technique ou un produit performant.
Les boîtes qui ont une traction business, elles, continuent à vivre même si le produit est techniquement très moyen.
Je suis certain que tout le monde a à l’esprit plein de produits de tous les jours qui sont défaillants mais qu’on continue à utiliser, même si c’est malgré-nous. C’est vrai en informatique comme dans n’importe quel métier.
Ça ne veut pas dire que la qualité technique ne compte pas. Je suis même convaincu que la bonne qualité technique est investissement massivement rentable sur le long terme.
Ça veut dire que la qualité technique est un outil et pas une finalité.
Si on confond les deux et qu’on fait de la qualité technique un objectif en soi, on risque fort de faire les mauvais choix.
Contexte (*) Une psychologue et auteure intervient dans les média sur ses sujets de d’expertise. Elle indique le faire bénévolement parce que le sujet lui semble important. C’est l’usage. Cette fois-ci, les presque deux heures de temps investis l’ont été à vide parce que l’interview prévue sur M6 ne sera ni diffusée ni utilisée. Le temps ne sera pas dédommagé. Côté journaliste, ça arrive, ça fait partie du jeu. L’intervenante, elle, déclare publiquement que désormais elle demandera à être rémunérée.
Nombreux sont les journalistes qui disent tomber des nues (pour les plus polis, parce que c’est en réalité bien plus méprisant). « On ne rémunère pas les sources » revient souvent, au nom de la déontologie du journalisme.
Je trouve ces positions des plus hypocrites. Peut-être qu’on pourra m’expliquer.
M6 n’est pas une œuvre caritative. Son business c’est vendre de l’espace publicitaire, en tirer du bénéfice, et verser des dividendes à ses actionnaires. On parle en millions, 230 millions de résultat net après impôt en 2023.
Pour vendre son espace publicitaire, la chaîne crée des contenus, qu’elle achète ou qu’elle fait créer en interne. Pour ces contenus on paye des journalistes. Tout le monde, moi inclus, trouvera légitime qu’on paye ces journalistes.
Le journaliste n’est pas seul. On peut payer des images, un monteur, un secrétariat, des locaux, un cameraman, peut-être un preneur de son, peut-être des maquilleurs, et j’oublie probablement 80 % des métiers qui sont nécessaires à la production et à la diffusion. Tout ça pour vendre la publicité de M6.
Et là, si la chaîne et le journaliste ont besoin d’expertise pour produire leur contenu, à quel titre est-ce que le professionnel qui donne son temps et son expertise ne mériteraient pas d’être rémunérés eux aussi ?
Que des professionnels choisissent d’intervenir sans rémunération sur des sujets qui leurs tiennent à cœur, je ne trouverai jamais rien à y redire. Chacun est libre. J’ai fait plein de choses bénévolement, par choix, et je continuerai d’en faire.
Que d’autres professionnels choisissent, eux, de demander une rémunération en échange de leur temps et de leur expertise, ça ne devrait faire bondir personne.
Je trouve salement hypocrite les journalistes qui défendent (à raison) leur rémunération et la valeur de leur métier, et qui en parallèle s’offusquent ou se moquent d’un professionnel qui souhaite être rémunéré pour son temps quand on le sollicite.
Invités récurrents, spécialistes de plateau, certains sont d’ailleurs effectivement payés. Sans faire trop de parallèle, ça me rappelle d’ailleurs la victoire aux prud’hommes de candidats de jeux télévisés qui avaient demandé une rémunération pour leur participation.
« On ne rémunère pas les sources »
Déontologie journalistique
Je serais tenté de dire que la déontologie journalistique concerne les journalistes et uniquement eux. Ce n’est pas le problème des tiers qui sont sollicités.
Libre aux journalistes de ne travailler qu’avec des bénévoles. Ça n’autorise pas de s’offusquer que d’autres demandent une rémunération, et encore moins de tirer à boulets rouges sur ces derniers.
Il ne faudra cependant pas ensuite se plaindre que ça fonctionne dans les deux sens, quand les lecteurs ne veulent lire que la presse gratuite et trouvent ridicule de devoir payer
Même ainsi, en réalité cette déontologie elle est à géométrie variable.
On paye des experts. Certains journalistes le disent d’ailleurs explicitement : On les rémunère déjà en visibilité, c’est à dire en publicité.
C’est opaque, non déclaré au fisc, mais l’usage. Parfois c’est doux, tu viens parler et en échange ça te permet de passer un message. Parfois c’est franchement plus explicite avec les charrettes d’experts qui viennent pour qu’on cite leur livre qui vient de paraître — ce que le journaliste s’empresse bien de faire puisque la rémunération sous forme de publicité est là tout à fait assumée.
L’enjeu ne semble pas être de rémunérer ou pas, c’est simplement de mettre ou pas la main au portefeuille. La déontologie elle a un peu bon dos.
Je crois que ceux que je trouve hypocrite sont justement ceux qui disent à la fois que rémunérer ne serait pas déontologique et que, quand même, les experts sont rémunérés en visibilité. Il faudrait choisir.
Libre à vous de demander ou pas rémunération, de le demander en espèces ou en publicité cachée.
Libre à vous de choisir si vous ne faites appels qu’à des vrais bénévoles, si vous souhaitez rémunérer en visibilité ou publicité, ou si vous acceptez de rémunérer en espèces de façon transparente.
Faites vos choix. Juste, éviter de vous offusquer qu’un professionnel demande à être rémunéré quand on sollicite deux heures de son temps pour restituer son expertise. Ça, tout le monde devrait applaudir.
(*) Pas de liens, volontairement, car elle diffuse des opinions politiques dont je ne souhaite pas assurer la publicité, même indirecte.
Je crois que c’est un des points contre-intuitif les plus mal connus sur le poids environnemental :
Acheter localement n’est pas forcément plus respectueux vis-a-vis des enjeux climatiques.
Je ne dis pas non, je dis « c’est plus compliqué que ça ».
Le transport maritime par conteneur est extrêmement optimisé. On parle de 3 grammes équivalent CO2 par kilomètre soit 60 kg équivalent CO2 la tonne à transporter sur un Shangaï – Rotterdam de 20 000 km par le canal de Suez. Votre paquet de 1 kg va consommer 60 grammes équivalent CO2 pour son trajet.
On peut aussi comparer au volume. Le transporteur nous dit qu’un TEU (conteneur de 20 pieds) de 38,5 m3 coûtera entre 0,8 et 0,9 tonne équivalent CO2 pour le trajet. Votre paquet de 30×20×15 cm va consommer 210 grammes équivalent CO2 pour son trajet.
Il n’y a pas de petit gain mais on parle là au mieux de l’équivalent de 1 km en voiture ou d’une bouteille d’eau en plastique. C’est probablement totalement insignifiant sur le coût équivalent CO2 de ce que vous achetez.
Si vous devez faire un trajet spécifique via les transports en commun (bus) pour favoriser le produit en Europe, vous êtes probablement déjà perdants.
Si votre producteur local fait des petits volumes, même géographiquement très proche de vous, il émettra peut-être même plus d’équivalent CO2 que celui qui fait venir de gros volumes par bateau depuis l’Asie du sud.
Pourquoi ai-je dit que c’était plus complexe ? Parce que les normes environnementales des différents pays ne sont pas forcément les mêmes, ni leur mix de production électrique, ni le moyen de transport de leurs employés, ni le besoin de chauffage de l’usine, ni la norme d’intensité d’éclairage, ni la productivité de l’usine, ni les volumes en jeu et leurs effets d’optimisation, ni… et considérant le faible coût CO2 dont on parle, n’importe quel critère annexe peut avoir 10 ou 100 fois plus d’impact d’un côté ou de l’autre.
L’expérience fonctionne. C’est juste peu pratique.
L’idée est bonne mais le niveau d’interaction se limite à recevoir sur le blog le texte des réponses publiques aux articles. Tout le reste, les réponses avec des images, les réponses privées, les réponses aux réponses, ça ne fonctionne pas. Je ne peux pas non plus effacer ou éditer des messages publiés, ou interagir directement avec les gens.
Aujourd’hui j’ai mieux fait de garder un compte Mastodon classique, utilisable à la main.
La conséquence c’est que le flux auto-hébergé du blog va finir par s’éteindre.
Si vous suiviez mes écrits par Mastodon, mieux vaut aller sur le site directement (il y a un flux RSS) ou regarder ce que je repartage sur mon compte personnel Mastodon.