Catégorie : Technique

  • [Lecture] AI writes code faster. Your job is still to prove it works.

    Cet article met proba­ble­ment le doigt sur une des incom­pré­hen­sions j’ai avec les inter­lo­cu­teurs critiques à propos d’ia dans les proces­sus de dev.

    Il ne s’agit pas de tout accep­ter. Oui, l’IA aujourd’­hui amène son lot de défauts. Je ne compare pas la qualité de la produc­tion de l’IA avec la qualité de la produc­tion d’un dev humain.

    C’est tout le proces­sus qui change. Ce que je compare c’est le résul­tat d’un proces­sus histo­rique avec celui où l’IA est au centre. Dans ce second proces­sus on a aujourd’­hui un dev qui véri­fie, qui relance, qui contraint. C’est un chan­ge­ment de métier.

    L’ar­­ticle parle de revue mais les deux points à rete­­nir pour moi c’est que l’hu­­main doit rester en maîtrise et toujours prou­­ver que le résul­­tat est le bon, sans juste faire confiance, et que le volume de code est un ennemi encore plus fort qu’a­­vant parce que l’IA est forte à géné­­rer beau­­coup de code.

  • L’ar­ti­san et l’usine

    J’ai passé la majo­rité de ma vie à façon­ner du code, et j’en ai fait mon métier. Je me suis long­temps vu comme arti­san logi­ciel. Pour moi c’était une des spéci­fi­ci­tés de notre profes­sion. On ne faisait pas deux fois les choses de la même façon. Sinon c’était auto­ma­ti­sable, et auto­ma­tisé. Le déve­lop­pe­ment logi­ciel c’était ce qui restait, et c’était de l’ar­ti­sa­nat.

    Je remets en ques­tion cette vision depuis quelque temps.

    Fin de l’ar­ti­san logi­ciel

    L’ar­ri­vée de l’IA change ce qui est auto­ma­ti­sable, et donc les acti­vi­tés restantes. J’ai deux futurs auxquels je crois.

    Le premier, c’est celui de l’in­gé­nieur qui va mettre en place le cadre, les outils, la surveillance, les docu­men­ta­tions, la chaîne de produc­tion et de livrai­son. On passe de l’ar­ti­sa­nat à l’usine robo­ti­sée, comme plusieurs métiers avant nous.

    Le second reste quelque part un arti­san, mais un arti­san produit plus qu’un arti­san logi­ciel. L’enjeu est de remon­ter partiel­le­ment la chaîne, se concen­trer sur ce qu’on veut produire, pourquoi, comment, et traduire le besoin. C’est fina­le­ment ce qu’on fait déjà : le déve­lop­peur traduit des besoins en code. Cette traduc­tion sera diffé­rente, et moins proche du code.

    Ces deux trajec­toires ne s’ex­cluent pas. On pourra sans doute navi­guer de l’une à l’autre selon les projets, les envies, les moments de carrière. Mais dans les deux cas, le métier change, radi­ca­le­ment, et l’ar­ti­san logi­ciel ne sera proba­ble­ment plus au cœur de l’ac­ti­vité d’ici fin 2026.

    Ça demande de chan­ger de métier, et ça pose plein de ques­tions.

    Moyen ou fina­lité ?

    La ques­tion qui m’ap­pa­raît prégnante pour cette année 2026, c’est de savoir si on fait du logi­ciel parce qu’on aime faire du logi­ciel ou parce qu’on aime faire des choses avec du logi­ciel.

    Jusqu’à présent, les deux étaient assez indis­so­ciables. Pour faire des choses avec du logi­ciel, la meilleure façon était de faire du logi­ciel, avec atten­tion et exper­tise. Pour faire un bon logi­ciel, durable, main­te­nable, évolu­tif, il fallait travailler la qualité interne, à la main.

    Cette dualité permet­tait de botter en touche avec un « les deux ». Je ne crois pas que ce soit encore vrai, ni que ça le reste long­temps.

    Pour l’amour du code

    Il y a toujours un peu « des deux » mais je sais que ce qui me motive prin­ci­pa­le­ment : ce que je vais pouvoir faire avec le logi­ciel, pas le logi­ciel en lui-même.

    Je comprends parfai­te­ment ceux qui ont appris à aimer le code, à le peau­fi­ner, à le faire gran­dir, et dont c’est la moti­va­tion prin­ci­pale. Ceux-là voudront peut-être rester dans l’ar­ti­sa­nat logi­ciel.

    Il y a toujours des arti­sans potiers, céra­mistes et porce­lai­niers aujourd’­hui. Peu, mais il y en a. Ils répondent à des demandes diffé­rentes. Certains sont experts pour des demandes hors normes. D’autres, plus nombreux, visent des objec­tifs non utili­taires : le luxe, le tourisme, les cadeaux, les symboles, l’hé­ri­tage histo­rique, l’art.

    À quoi est-ce que corres­pon­dra l’ar­ti­sa­nat dans le logi­ciel ? Je ne sais pas encore. Peut-être à des systèmes critiques où la confiance exige une main humaine. Peut-être à des créa­tions où l’in­ten­tion artis­tique prime sur l’ef­fi­ca­cité. Peut-être simple­ment au plai­sir de comprendre ce qu’on construit, ligne par ligne. Il y a un métier à trou­ver, ce ne sera pas tout à fait le même et il sera proba­ble­ment plus l’ex­cep­tion que la règle.

    Je serai proba­ble­ment toujours un arti­san logi­ciel. Mes premiers codes datent d’il y a presque 40 ans. On ne remet pas faci­le­ment au placard un tel héri­tage. Je pres­sens toute­fois que cet arti­sa­nat ne sera plus mon métier.

    Comme les photo­graphes qui n’ont jamais lâché l’ar­gen­tique et la démarche artis­tique, je conti­nue­rai proba­ble­ment à coder un peu à la main, mais pour le plai­sir. Côté déve­lop­pe­ment on a toujours eu un énorme terrain de jeu hors profes­sion­nel avec l’open source. Ça restera proba­ble­ment.

  • Acti­ver les couleurs P3 sur Fire­fox et Macos

    Je ne sais pas pourquoi, Fire­fox gère l’es­pace de couleurs P3 sur Windows et Linux mais le désac­tive par défaut sur Macos.

    Vous pouvez faire le test pour voir la diffé­rence entre Fire­fox et Safari.

    Je m’en suis rendu compte et j’ai cher­ché si je pouvais chan­ger ça. J’ai trouvé cette confi­gu­ra­tion qui fonc­tionne avec succès chez moi :

    gfx.color_management.mode = /System/Library/ColorSync/Profiles/Display P3.icc
    gfx.color_management.native_srgb = false
    gfx.color_management.mode = 1

    Je suis très curieux de comprendre pourquoi Fire­fox est si en retard là dessus, surtout sur Macos qui gère ça nati­ve­ment.

  • IA, l’élé­phant dans le couloir (quatrième)

    J’étais resté sur des esti­ma­tions assez diverses lors de mon dernier billet.

    Là on a une colla­bo­ra­tion entre Carbone 4 (Jean-Marc Janco­vici) et Mistral sur leur plus gros modèle, en regar­dant le cycle de vie complet : en partant de la construc­tion des équi­pe­ments et des data­cen­ter jusqu’au réseau et au termi­nal des utili­sa­teurs finaux, en passant bien évidem­ment par l’en­trai­ne­ment et le coût des requêtes elles-mêmes.

    Impact d'une page de texte générée (400 tokens) avec le modèle Large 2 de Mistral AI.

1,14 gramme eqCO2
0,05 litre d'empreinte d'eau
0,2 milligramme eq Sb

    Je vais lais­ser la ques­tion des mine­rais parce que je connais trop peu le sujet (vos liens sont les bien­ve­nus).

    Le reste je sais compa­rer.

    En équi­valent CO2, votre tasse de café du matin vaut dans les 500 pages de texte géné­rées par le modèle de langage le pIus large, entrai­ne­ment et maté­riel inclus.

    Un repas une fois dans l’an­née avec 100 grammes de crevettes, c’est l’équi­valent de 1 750 de pages de texte géné­rées par le modèle de langage le plus large, entrai­ne­ment et maté­riel inclus, soit presque 5 pages par jour.

    En eau c’est encore plus flagrant. Votre tasse de café du matin a une empreinte de 140 litres d’eau (non, il n’y a pas d’er­reur de virgule), soit envi­ron 2 800 pages de texte géné­rées par le modèle de langage le plus large.

    Une petite portion de 120 grammes de bœuf une seule fois dans l’an­née c’est l’équi­valent en eau de 9 pages de textes géné­rées par le modèle de langage le plus large, chaque jour, toute l’an­née.


    Encore cette fois-ci, mon discours n’est pas de dire qu’on s’en moque, surtout si ces usages s’ajoutent partiel­le­ment aux exis­tants — chaque ajout freine la baisse néces­saire de nos émis­sions — mais il est préfé­rable de garder les ordres de gran­deur en tête pour éviter de foca­li­ser au mauvais endroit.

    Pour pous­ser le bouchon : Si une marque de cafe­tières propo­sait d’em­barquer un petit modèle de langage dans ses appa­reils pour limi­ter les fuites ou les tasses trop remplies (c’est un exer­cice de pensée, les LLMs seraient tota­le­ment inutiles pour ça en réalité), je suis certain qu’on enten­drait crier à l’as­sas­si­nat de la terre alors que ça serait très faci­le­ment rentable du point de vue des enjeux clima­tiques et des ressources terrestres.

    TL;DR: Arrê­tez le café, la viande rouge et les crevettes.


    Vu autre­ment, même en utili­sant très massi­ve­ment l’IA (100 pages géné­rées par jour, ce qui me parait énorme), en le faisant avec le modèle le plus large (pourquoi ?), on est à 41 Kg eqCO2 et 1 800 L d’em­preinte d’eau. Ça repré­sen­te­rait 0,5% de la consom­ma­tion d’un français moyen en eqCO2 (8 tonnes eqCO2 annuelles) et 0,8% en empreinte d’eau (214 000 litres annuels), sachant que ça évite aussi quelques usages donc on ne peut pas se conten­ter d’ad­di­tion­ner.

    Bien évidem­ment, ça a aujourd’­hui peu de sens d’ima­gi­ner avoir une telle consom­ma­tion, même pour quelqu’un qui s’y livre massi­ve­ment, et encore moins en utili­sant à chaque fois les modèles les plus larges.

    Ça permet toute­fois de tracer une limite haute. Sauf rare excep­tion, même les plus gros utili­sa­teurs ne vont pas se retrou­ver avec un usage signi­fi­ca­tif par rapport à leur vie actuelle.

  • Je ne crains pas de perdre mon travail

    Je ne demande même que ça.

    Travail n.m. (lat. pop. tripa­lium ; de tres, trois et palus pieu) instru­ment de torture puis appa­reil où l’on place les bœufs pour les ferrer

    Quelle mouche a donc piqué notre société pour qu’on veuille sauve­gar­der le travail ? Je suis des plus heureux que l’au­to­ma­ti­sa­tion m’épargne une quan­tité de travaux des siècles derniers, et qu’elle nous ait permis d’avoir un meilleur confort et une meilleure vie.

    J’ai une machine à laver le linge et une pour la vais­selle. J’ai une calcu­lette ainsi qu’un micro-ordi­na­teur portable. L’élec­tri­cité m’ap­porte aussi la lumière, la cuis­son, un ascen­seur et certai­ne­ment cent autres appa­reils quoti­diens.

    On est telle­ment entou­rés de travail auto­ma­tisé qu’on oublie que le travail manuel n’est plus que l’ex­cep­tion.

    Et tant mieux. Je n’en­vie pas le temps des labours manuels, des porteurs d’eau, de la coupe du bois de chauf­fage, des dépla­ce­ments à pieds peu importe la distance, etc.

    C’est la part des richesses appor­tée à chacun qu’il faut sauve­gar­der, pas le travail.

    Confondre les deux relève quand même d’un aveu­glé­ment assez profond.

    Richesses, subst. fém.
    Tout ce qui est suscep­tible de combler, de satis­faire les désirs, les besoins de l’homme.

    Le problème n’est pas que l’au­to­ma­ti­sa­tion retire du travail, ni même qu’on manque de richesses. Le problème c’est que l’au­to­ma­ti­sa­tion du travail modi­fie la répar­ti­tion des richesses (vers une plus grande concen­tra­tion).

    Dans un monde capi­ta­liste, la richesse appar­tient d’abord à celui qui contrôle les moyens de produc­tion. Il y a long­temps c’était la terre. Désor­mais ce sont les machines et les infra­struc­tures. Demain ce sera peut-être ce qu’on nomme les intel­li­gences arti­fi­cielles.

    Pour partie, les emplois perdus sont recréés ailleurs. L’enjeu c’est d’as­su­rer la tran­si­tion. Le chômage et la forma­tion sont des réponses mais elles ne sont que partielles. Ceux qui perdent un emploi ne sont pas forcé­ment les mêmes que ceux qui en trouvent un nouveau.

    Malheu­reu­se­ment, nos élus tendent à rabo­ter le chômage et culpa­bi­li­ser les personnes qui perdent leur emploi. Tout ceci est pour­tant struc­tu­rel, attendu. Il ne reste qu’un RSA de misère qui repré­sente à peine la moitié du seuil de pauvreté.

    Pour ne rien gâcher, nos élus tendent à vouloir augmen­ter le temps de travail, donc concen­trer l’em­ploi et les richesses acquises ainsi sur moins de personnes, avec forcé­ment plus de lais­sés pour compte.

    Prépa­rer la révo­lu­tion

    Ce qu’on nomme intel­li­gence arti­fi­cielle rend envi­sa­geable à une révo­lu­tion à court terme. On y croit ou on n’y croit pas, mais c’est un avenir possible, crédible.

    La diffé­rence avec la révo­lu­tion de la vapeur, de l’au­to­ma­ti­sa­tion des usines et de l’élec­tro­nique, c’est la vitesse à laquelle on imagine l’au­to­ma­ti­sa­tion prendre place.

    Ça peut être sanglant, à un point diffi­ci­le­ment compa­rable avec le passé.

    Le chômage ne peut pas être la solu­tion. L’es­poir dans la créa­tion de nouveaux types d’em­plois non plus. L’échelle des temps n’est pas la bonne.

    Il faut autre chose. D’au­cuns parlent de revenu de base, de revenu d’exis­tence ou de salaire à vie. Peu importe. Ça peut être ça ou autre chose, mais on a besoin d’une solu­tion, et on a très peu de temps pour la mettre en place.

    Si nous ne sommes pas prêts c’est un autre type de révo­lu­tion qui peut venir, tout aussi sanglant.

    Lâcheté et absence du poli­tique

    Sauve­gar­der le travail est déjà un non-sens à la base. Faire faire du travail inutile pour éviter de penser la répar­ti­tion des richesses, c’est botter en touche.

    Ça peut fonc­tion­ner pour quelques mois, quelques années, mais pas plus, et à petite échelle. Face à l’am­pleur du chan­ge­ment qu’on entre­voit, ça n’est même pas une possi­bi­lité. On mérite un peu plus de hauteur et de vision.

    Entre temps, tout ce qu’on obtient c’est de soli­di­fier le rapport de domi­na­tion entre les déten­teurs du capi­tal et ceux qui vendent leur travail, physique ou intel­lec­tuel. Comme les second n’ont pas le choix, que les premiers voient venir la possi­bi­lité d’agir seuls, on entame un cycle de régres­sions sociales.

    Tout poli­tique qui trouve sa réponse dans la sauve­garde du travail ou qui cède aux chan­tages à l’em­ploi des grandes socié­tés devrait être hué et renvoyé chez lui. Ceux qui ignorent la ques­tion ne méritent guère mieux.

    Malheu­reu­se­ment les propo­si­tions alter­na­tives ne se croisent pas ailleurs que sur les sites web. Il n’y a aucune vraie action en ce sens.

    Le fascisme qui vient

    Le fascisme et l’au­to­ri­ta­risme qui ne sont pas étran­gers à tout ça.

    On arrive au bout d’un système. On le fait perdu­rer en renforçant le main­tient de l’ordre (police, lois, enfer­me­ment, pouvoirs de l’exé­cu­tif) et en bridant la capa­cité de s’or­ga­ni­ser (répres­sion des mouve­ments sociaux, guerre ou jeux, menaces socié­tales réelles ou fantas­mées, renfor­ce­ment de la pola­ri­sa­tion, dési­gna­tion de coupables, oppo­ser les uns et les autres).

    Il n’y a pas de complot, juste un engre­nage qui se met en place de lui-même par la lâcheté ou la courte vue de nos respon­sables poli­tiques.

    Les déten­deurs du capi­tal sont malheu­reu­se­ment histo­rique­ment assez à l’aise voire acteurs dans ces périodes, et c’est encore le cas aujourd’­hui. Leur pouvoir s’y renforce.

    Ça tient un temps, jusqu’à soit explo­ser soit sentir très mauvais. Les deux ne s’ex­cluant pas.

  • Lâcher les coûts

    L’ar­ri­vée des LLMs dans le déve­lop­pe­ment web met pas mal en lumière l’ap­proche inco­hé­rente de la plupart des socié­tés françaises par rapport aux coûts.

    Un Cursor c’est 40$ par mois et par déve­lop­peur. C’est moins d’une heure de travail d’un déve­lop­peur stan­dard en France.

    On est en dessous des paliers où on devrait même en parler. Si l’au­to­no­mie de vos déve­lop­peurs ne va pas jusqu’à leur faire confiance pour une heure de travail, vous avez pas mal de choses à remettre en cause dans votre orga­ni­sa­tion.

    En réalité, les équipes qui font d’ores-et-déjà un usage inten­sif de l’IA sur tout leur process — et pas unique­ment la côté complé­tion de code dans l’édi­teur —1 ont proba­ble­ment des factures qui sont au-delà des 100$ ou 200$ par mois et par déve­lop­peur.

    Je ne serais pas étonné que, dans ces équipes, on trouve faci­le­ment la demie-jour­née de travail gagnée qui justi­fie l’abon­ne­ment Ultra à 200$.

    En fait, dans mes lectures actuelles, je vois même parler de 2000$ par mois et par déve­lop­peur. Là on commence à parler. Là ça demande de savoir si on démul­ti­plie vrai­ment la force de travail ou si on se contente de faci­li­ter le travail.

    Peut-être que le coût se justi­fie déjà, et on a un chan­ge­ment struc­tu­rel dans la façon de travailler. Peut-être que ce n’est pas encore le cas, mais lais­ser ceux qui le veulent jouer à ce niveau rend possible de voir appa­raitre un tel chan­ge­ment2.

    Le vrai enjeu est ici. Je suis heureux de débattre sur comment on peut chan­ger la donne, pas de me battre sur le coûts d’ou­tils qui repré­sentent moins d’une poignée d’heures par mois.


    1. Il parait que le quadra­tin est désor­mais devenu un marqueur pour détec­ter l’usage de textes rédi­gés par IA. Je ris jaune. Vous trou­ve­rez dans mes textes sur ce blog un usage régu­lier de cette typo­gra­phie depuis 15 ou 20 ans. Tirez-en les conclu­sions que vous voulez. ↩︎
    2. On dit que l’in­no­va­tion nait par la contrainte. Elle nait aussi par l’op­por­tu­nité et la liberté de sortir du terrain connu pour essayer, sans savoir ce que ça peut donner. ↩︎
  • IA : L’élé­­phant dans le couloir (ter)

    Je n’ai pas encore résolu mes inter­ro­ga­tions et mes contra­dic­tions sur le sujet de l’IA et de son impact sur la planète.

    Je retiens toute­fois quatre points :

    1– Personne ne peut prétendre savoir ce que sera l’ave­nir.

    On ne sait pas à quel point les usages vont s’en­vo­ler ou pas. On ne sait pas quels seront ces usages. On ne sait pas s’ils vont rempla­cer d’autres usages, ni lesquels ni en quelle propor­tion. On ne sait pas quelle sera la consom­ma­tion ni la taille des modèles futurs.

    On ne sait honnê­te­ment pas grand chose.

    Si les projec­tions sont des exer­cices inté­res­sants, il ne faut pas confondre ça avec des prédic­tions.

    2– Il y a certains futurs possibles où l’im­pact de ces outils sur la planète pour­rait deve­nir signi­fi­ca­tif, voire un des enjeux à résoudre dans le cadre de la lutte contre le chan­ge­ment clima­tique.

    Les limites de notre planète et le chan­ge­ment clima­tique sont à mes yeux peut-être les plus grands enjeux que l’hu­ma­nité ait eu depuis qu’elle existe, et les consé­quences seront proba­ble­ment désas­treuse.

    Ajou­ter au problème ou frei­ner les mesures d’at­té­nua­tion sont des risques loin d’être anodins.

    3– Il faut garder en tête les ordres de gran­deur.

    Les esti­ma­tions récentes descendent à 0.3Wh pour une requête stan­dard à un ChatGPT-like. Si les chiffres varient, on peut dessi­ner une borne supé­rieure à 3Wh.

    À 0,3Wh1, perdre 5 minutes à rédi­ger une conclu­sion ou un listing d’ac­tions, à faire une relec­ture d’or­tho­graphe ou de gram­maire sur un docu­ment, ou à faire une traduc­tion rapide, c’est entre 5 et 10 requêtes2. Ouvrir le frigo une fois de trop c’est de l’ordre de 30 à 40 requêtes3. Réchauf­fer des restes 3 minutes au micro-onde au lieu de manger froid c’est 150 requêtes4.

    Les plus curieux trou­ve­ront plein d’autres compa­rai­sons dans le point d’étape précé­dent.

    J’ajoute au moins que faire soirée raclette dans l’an­née c’est de l’ordre de 25 000 requêtes ChatGPT-like par personne, soit 60 tous les jours pendant un an5.

    Ça ne veut pas dire que ça n’a pas d’im­por­tance, et tout ajout est un ajout de trop, mais se foca­li­ser sur les usages actuels risque de géné­rer beau­coup d’at­ten­tion au mauvais endroit. C’est vrai autant à titre indi­vi­duel qu’à titre collec­tif.

    4– Certains usages ont un gain net.

    En repre­nant les exemples plus haut, utili­ser l’IA pour faire traduire, résu­mer, relire des docu­ments ou recher­cher dans ceux-ci plutôt que le faire à la main permet proba­ble­ment de dimi­nuer l’im­pact sur la planète.

    C’est pareil si l’as­sis­tance de l’IA pour cher­cher et réali­ser des menus peut permettre une fois de temps en temps d’évi­ter un aller-retour au frigo, de jeter un reste ou d’avoir une recette froide plutôt que chaude.

    Culpa­bi­li­ser l’usage par prin­cipe ressemble aux mêmes mauvaises idées derrières de bonnes inten­tions que le tri des emails qui impose de passer du temps sur l’or­di­na­teur ou le pipi sous une douche qui dure plus long­temps.


    Je n’ai toujours pas de conclu­sion.

    Ce n’est pas un décompte.

    Le second point a tendance à réveiller ma trouille déjà exis­tante sur ce que sera la vie des géné­ra­tions suivantes, dont celle de mon fils.

    Je ne veux surtout pas que les autres points incitent quiconque à mini­mi­ser ce risque ou son impor­tance.

    Agiter le chif­fon rouge ne me parait pas pour autant une bonne idée et je pense que ce serait une erreur que de trai­ter la chose de façon binaire par anti­ci­pa­tion.

    Pour l’ins­tant j’en suis là.

    Comme je disais en intro­duc­tion, j’ai encore plus de ques­tions que de réponses, et encore des contra­dic­tions.


    1. C’est ce qui semble ressor­tir de mes lectures. Si on prend 3Wh comme réfé­rence certaines compa­rai­sons sont moins impres­sion­nantes mais le prin­cipe reste. ↩︎
    2. 10W pour un ordi­na­teur portable en très faible acti­vité + 20W pour un écran externe de taille clas­sique. ↩︎
    3. Ordre de gran­deur de 1kWh par jour, consom­ma­tion augmen­tée de 17% pour 15 ouver­tures par jour ↩︎
    4. Micro-onde à 900W ↩︎
    5. Esti­ma­tion de 2,5kg d’eqCO2 par personne traduite en consom­ma­tion éner­gé­tique à l’aide du mix des USA de 365 g d’eqCO2 par kWh ↩︎
  • IA sans l’in­tel­li­gence

    Je n’aime pas ce terme d’IA, intel­li­gence arti­fi­cielle.

    On trompe les gens. On provoque un imagi­naire de science fiction avec les robots conscients d’Asi­mov et des intel­li­gences arti­fi­cielles éthé­rées de cyber­punk.

    Ce qui est sous nos doigts aujourd’­hui ne réflé­chit pas. Ce n’est pas de l’« intel­li­gence » au sens où on l’en­tend commu­né­ment mais ça reste majeur. Ça reste un poten­tiel boule­ver­se­ment socié­tal majeur.


    J’ai tenté de parler de LLM, large language model, mais c’est cibler une tech­no­lo­gie spéci­fique. Je vais conti­nuer à parler d’IA, mais je n’aime pas ça.

    Gardez-vous de vous moquer parce que ChatGPT fait une erreur sur une addi­tion de nombres à deux chiffres. L’enjeu n’est pas là.

  • IA : L’élé­phant dans le couloir (bis)

    J’avais tenté de récol­ter un peu de donnée sérieuse sur la consom­ma­tion éner­gé­tique des LLMs. C’est labo­rieux, et je n’ai pas trouvé le consen­sus que je cher­chais.

    Les données ne sont pas publiques, si tant est qu’elles soient connues, et tout n’est qu’es­ti­ma­tion à base d’hy­po­thèses.

    Il y a à la fois profu­sion d’in­for­ma­tion et de chiffres lancés, et en même temps pas tant d’études récentes qui détaillent tout ça. Celles qui existent donnent des résul­tats parfois extrê­me­ment diffé­rents les unes des autres, sur des hypo­thèses elles-aussi diffé­rentes et parfois discu­tables.

    Le tout est aussi dépen­dant de la taille comme de la géné­ra­tion du modèle utilisé. Certains demandent du calcul paral­lèle sur plusieurs GPU dédiés, d’autres sont assez petits pour tour­ner direc­te­ment sur le télé­phone. La consom­ma­tion éner­gé­tique est en fonc­tion.

    Bref, plein de choses à lire, sans qu’on puisse faci­le­ment en déter­mi­ner la fiabi­lité des esti­ma­tions ou la perti­nence des hypo­thèses. Chacun trou­vera son bonheur en fonc­tion des biais qu’il aura au départ.

    Je n’ai toute­fois pas été le seul à faire ces recherches, et il y a des réponses inté­res­santes.

    Si je ne devais donner qu’un lien pour commen­cer, c’est Andy Masley, qui a tenté l’exer­cice de tout fouiller pour tirer ses conclu­sions et qui a ensuite itéré avec les réac­tions qu’il a eu, liant plein de sources et de réac­tions sur le web, avec tendance à remettre ses chiffres et conclu­sions en cause quand c’est perti­nent (atti­tude qui me donne confiance). Vous pouvez commen­cer par le dernier épisode et suivre lien à lien.


    Note : Ce qui suit ne porte pas de juge­ment de valeur. Je ne dis pas si c’est bien, grave, ou quoi que ce soit. Tirez-en vous-mêmes vos conclu­sions.


    Elle est de combien cette consom­ma­tion éner­gé­tique alors ?

    Les études sérieuses récentes parlent d’entre 0.3 et 2.9Wh par requête ChatGPT, en faisant réfé­rence à des géné­ra­tions diffé­rentes1, et certaines avec des hypo­thèses d’en­trée/sortie d’un ordre de gran­deur plus grand que la requête moyenne. On trouve aussi du 0,2Wh pour LLaMA-65B. HuggingFace donne une esti­ma­tion éner­gé­tique de chaque requête, et j’ob­tiens plutôt du 0,18Wh pour Qwen 2.5 en 72B.

    Les pessi­mistes pren­dront 3Wh, les opti­mistes 0.3Wh2. Les deux sont crédibles.

    Malheu­reu­se­ment ça veut aussi dire que toute conclu­sion tient en équi­libre sur une donnée dont on ne connait même pas l’ordre de gran­deur réel.

    Si en plus on ajoute les modèles de taille infé­rieure comme les chatGPT-nano et les modèles 5B dans l’équa­tion, on peut certai­ne­ment encore divi­der par 5 ou 103 les esti­ma­tions opti­mistes. Si on ajoute les modèles thin­king, on peut multu­plier par 2 à 5 les esti­ma­tions pessi­mistes.

    Andy Masley utilise la vision conser­va­trice du 3Wh comme ordre de gran­deur en se disant que « ça sera en dessous » et que donc c’est un coût maxi­mum. Je suis mitigé sur l’ap­proche, parce que du coup les discus­sions se foca­lisent sur ce chiffre qui peut (ou pas) être encore un voire deux ordres de gran­deur trop grand suivant ce à quoi on fait réfé­rence.

    Ça veut dire combien en équi­valent CO2 ?

    Une grosse partie des data­cen­ters sont aux USA. Les USA ont une moyenne de 365 g d’eqCO2 par kWh mais ça reste très hété­ro­gène. La Cali­for­nie qui concentre une bonne partie de l’ac­ti­vité fait moitié moins.

    Tout n’est d’ailleurs pas non plus aux USA. Si vous utili­sez un LLM hébergé en France, les émis­sions tombent à 56 g d’eqCO2 par kWh, soit 6 fois mois.

    Il est dans tous les cas diffi­cile de lier les data­cen­ters à la moyenne d’émis­sion de leur région vu leurs efforts pour se lier à des sources d’éner­gie à faibles émis­sions plutôt au mix géné­ral.

    Bref, là aussi, même l’ordre de gran­deur n’est pas une évidence.

    Malheu­reu­se­ment ça se multi­plie : Si l’es­ti­ma­tion éner­gé­tique fait une four­chette d’un ordre de gran­deur, que l’es­ti­ma­tion d’émis­sion fait une four­chette d’un ordre de gran­deur, le résul­tat c’est qu’on a une incer­ti­tude de deux ordres de gran­deur à la fin, et prendre « au milieu » n’a aucun sens.

    Bien entendu, si on ne se fixe pas sur une taille de modèle précise, on peut ajou­ter encore un ordre de gran­deur d’in­cer­ti­tude à tout ça.

    La four­chette finale est comme vous dire « c’est quelque chose entre le Paris-Versailles aller-retour et le tour de la terre complet ». Diffi­cile de raison­ner avec ça.

    Donne nous un chiffre !

    Va savoir… vu les esti­ma­tions avec des ordres de gran­deurs quasi­ment incon­nus, ma seule conclu­sion est « je ne sais pas ».

    Je vais quand même reprendre l’idée d’Andy Masley avec quelques hypo­thèses.

    ChatGPT ou équi­valent 70B,
    borne pessi­miste,
    data­cen­ter en Cali­for­nie
    0,550 gr d’éqCO2 par requête
    ChatGPT ou équi­valent 70B,
    borne opti­miste,
    data­cen­ter en Cali­for­nie
    0,055 gr d’éqCO2 par requête
    ChatGPT-nano ou équiv. 5B,
    borne pessi­miste,
    data­cen­ter en Cali­for­nie
    0,055 gr d’éqCO2 par requête
    ChatGPT-nano ou équiv. 5B,
    borne opti­miste,
    data­cen­ter en Cali­for­nie
    0,005 gr d’éqCO2 par requête
    ChatGPT-nano ou équiv. 5B,
    borne opti­miste,
    data­cen­ter en France
    0,0017 gr d’éqCO2 par requête

    Renta­bi­lité

    Un ordi­na­teur fixe avec son écran externe consomme dans les 60 watts4, donc 1 Wh par minute d’uti­li­sa­tion. Avec nos chiffres plus haut, une requête LLM devient rentable éner­gé­tique­ment si elle évite entre 2 secondes et 3 minutes de travail5.

    On trouve aussi qu’une requête de recherche Google consomme 10 fois moins qu’une requête ChatGPT6. Tourné autre­ment, la requête au LLM est rentable si elle vous épargne 10 recherches Google. Si vous utili­sez un modèle nano, on devrait être au même ordre de gran­deur qu’une requête Google.

    Si on mélange les deux (pendant l’uti­li­sa­tion de votre ordi­na­teur vous allez faire des recherches, pendant vos recherches vous allez utili­ser l’or­di­na­teur, et faire tour­ner d’autres serveurs web), l’équi­va­lence éner­gé­tique semble attei­gnable rapi­de­ment.

    Ok, mais c’est beau­coup quand même, non ?

    Je vais éviter l’opi­nion subjec­tive. Le mieux est de prendre quelques exemples à partir du compa­ra­teur de l’Ademe :

    • Une simple tartine de beurre sans confi­ture le matin7 c’est l’équi­valent d’entre 144 requêtes et 39 500 requêtes LLM dans la jour­née.
    • Prendre 100 grammes de crevettes8 au repas une fois dans l’an­née, c’est l’équi­valent de faire au travail toute l’an­née entre plus de 2 requêtes par jour et plus d’1 requête par minute.
    • Si vous déci­dez de rempla­cer la vieille armoire de mamie qui commence à lâcher plutôt que de faire un rafis­to­lage bien moche avec clous et planches, c’est l’équi­valent de faire entre une requête toutes les 16 minutes et 17 requêtes par minute sur toute votre vie à partir de vos 6 ans, 16 heures par jour9 .

    Si certains parlent d’in­ter­dire les IAs pour des raisons éner­gé­tiques, ce que je trouve comme chiffre rend toute­fois bien plus effi­cace et perti­nent d’in­ter­dire de jeter des meubles ou de manger des crevettes ou des raclettes10, à la fois sur l’ordre de gran­deur et sur le service rendu.

    Ce que je ne dis pas

    Parce que je sais que je vais avoir pas mal de réac­tions :

    • Je ne nie pas l’im­pact envi­ron­ne­men­tal
    • Je ne dis pas que c’est rien. Ce n’est pas rien.
    • Je ne sais pas mesu­rer à quel point on risque d’uti­li­ser ces outils dans le futur, et donc le poten­tiel effet de masse
    • Je ne dis rien ici de la perti­nence, de l’uti­lité ou de la dange­ro­sité de ces outils hors des ques­tions éner­gé­tiques
    • Je ne dis pas oui ou non à un usage ou un autre, je me contente de donner les chiffres et l’in­cer­ti­tude que j’ai trou­vés

    C’est un état de réflexion, pas une conclu­sion

    Bien évidem­ment, si j’ai fait une quel­conque erreur, ce qui est loin d’être impos­sible, vous êtes les bien­ve­nus à me le signa­ler.

    Même chose si vous avez des liens à ajou­ter au débat. Je ne les ai pas forcé­ment lu, et ça peut évidem­ment chan­ger mon texte.


    1. Sans avoir de données publiques, les prix des diffé­rentes géné­ra­tions crédi­bi­lisent que la consom­ma­tion éner­gé­tique a tendance à bien bais­ser avec le temps ↩︎
    2. C’est poten­tiel­le­ment 30% de plus si on prend en compte l’en­trai­ne­ment des modèles. J’ai fait le choix de ne pas le prendre en compte parce que juste­ment on parle d’un futur où on aurait un usage massif des LLMs (les émis­sions d’aujourd’­hui sont peu signi­fiantes). Dans ce futur, si on répar­tit le coût d’en­trai­ne­ment sur la tota­lité des usages, on a des chances que ça ne soit pas si signi­fi­ca­tif que ça. Dans tous les cas, même 30% ne change pas les ordres de gran­deur de la suite. ↩︎
    3. Je me base sur la diffé­rence de prix entre ChatGPT-4.1 et ChatGPT-4.1-nano ↩︎
    4. On peut divi­ser par deux pour un ordi­na­teur portable ↩︎
    5. Suivant qu’on est sur un équi­valent ChatGPT avec un scéna­rio de consom­ma­tion pessi­miste ou un équi­valent équi­valent ChatGPT-nano hébergé en France avec un scéna­rio de consom­ma­tion opti­miste ↩︎
    6. Là aussi, il semble que ce soit une borne haute, proba­ble­ment basée sur la borne haute de la consom­ma­tion éner­gé­tique de ChatGPT ↩︎
    7. 10 grammes de beurre par tartine, à 7,9 kg d’eqCO2 par kg de beurre, donc 79 grammes d’eqCO2 par tartine. ↩︎
    8. 100 grammes de crevettes, à 20 kg d’eqCO2 par kg de crevettes, donc 2 kg d’eqCO2 la portion de crevettes. ↩︎
    9. 16 heures par jour parce que bon, à faire ça toute votre vie on peut quand même vous lais­ser 8 heures par jour pour dormir, manger, prendre une douche, vous dépla­cer, etc. ↩︎
    10. Ce n’est pas juste une remarque amusante ou du whata­bou­tisme. Je suis en fait sacré­ment sérieux. L’ali­men­ta­tion de source animale est un des éléments majeur de nos émis­sions, bien bien au-delà de ce que pour­rait deve­nir l’IA dans les scéna­rios pessi­mistes sur le futur. Mettre une taxe carbone voire des inter­dic­tions ne me parait pas tota­le­ment décon­nant.
      Oui, j’en suis là sur mon rapport au réchauf­fe­ment clima­tique, c’est dire à quel point je ne prends pas la chose à la légère et à quel point je serais prêt à bannir l’IA si j’avais l’im­pres­sion que ce serait le problème. ↩︎
  • Biggest threat

    Q&A from a talk I gave last week.

    Q: « What do you think is the biggest threat in cyber­se­cu­rity right now? Is it post-quan­tum compu­ting? Is it AI? »

    A: Fascism. It’s fascism.

    Evacide, Masto­don

    Malheu­reu­se­ment j’ai peur que cette réponse soit la même pour la plupart des menaces, peu importe le domaine. Même le réchauf­fe­ment clima­tique commence à passer au second plan dans mon échelle de menace.

    Fascisme, haine, racisme, xéno­pho­bie, impé­ria­lisme.