Cet article met probablement le doigt sur une des incompréhensions j’ai avec les interlocuteurs critiques à propos d’ia dans les processus de dev.
Il ne s’agit pas de tout accepter. Oui, l’IA aujourd’hui amène son lot de défauts. Je ne compare pas la qualité de la production de l’IA avec la qualité de la production d’un dev humain.
C’est tout le processus qui change. Ce que je compare c’est le résultat d’un processus historique avec celui où l’IA est au centre. Dans ce second processus on a aujourd’hui un dev qui vérifie, qui relance, qui contraint. C’est un changement de métier.
L’article parle de revue mais les deux points à retenir pour moi c’est que l’humain doit rester en maîtrise et toujours prouver que le résultat est le bon, sans juste faire confiance, et que le volume de code est un ennemi encore plus fort qu’avant parce que l’IA est forte à générer beaucoup de code.
J’ai passé la majorité de ma vie à façonner du code, et j’en ai fait mon métier. Je me suis longtemps vu comme artisan logiciel. Pour moi c’était une des spécificités de notre profession. On ne faisait pas deux fois les choses de la même façon. Sinon c’était automatisable, et automatisé. Le développement logiciel c’était ce qui restait, et c’était de l’artisanat.
Je remets en question cette vision depuis quelque temps.
Fin de l’artisan logiciel
L’arrivée de l’IA change ce qui est automatisable, et donc les activités restantes. J’ai deux futurs auxquels je crois.
Le premier, c’est celui de l’ingénieur qui va mettre en place le cadre, les outils, la surveillance, les documentations, la chaîne de production et de livraison. On passe de l’artisanat à l’usine robotisée, comme plusieurs métiers avant nous.
Le second reste quelque part un artisan, mais un artisan produit plus qu’un artisan logiciel. L’enjeu est de remonter partiellement la chaîne, se concentrer sur ce qu’on veut produire, pourquoi, comment, et traduire le besoin. C’est finalement ce qu’on fait déjà : le développeur traduit des besoins en code. Cette traduction sera différente, et moins proche du code.
Ces deux trajectoires ne s’excluent pas. On pourra sans doute naviguer de l’une à l’autre selon les projets, les envies, les moments de carrière. Mais dans les deux cas, le métier change, radicalement, et l’artisan logiciel ne sera probablement plus au cœur de l’activité d’ici fin 2026.
Ça demande de changer de métier, et ça pose plein de questions.
Moyen ou finalité ?
La question qui m’apparaît prégnante pour cette année 2026, c’est de savoir si on fait du logiciel parce qu’on aime faire du logiciel ou parce qu’on aime faire des choses avec du logiciel.
Jusqu’à présent, les deux étaient assez indissociables. Pour faire des choses avec du logiciel, la meilleure façon était de faire du logiciel, avec attention et expertise. Pour faire un bon logiciel, durable, maintenable, évolutif, il fallait travailler la qualité interne, à la main.
Cette dualité permettait de botter en touche avec un « les deux ». Je ne crois pas que ce soit encore vrai, ni que ça le reste longtemps.
Pour l’amour du code
Il y a toujours un peu « des deux » mais je sais que ce qui me motive principalement : ce que je vais pouvoir faire avec le logiciel, pas le logiciel en lui-même.
Je comprends parfaitement ceux qui ont appris à aimer le code, à le peaufiner, à le faire grandir, et dont c’est la motivation principale. Ceux-là voudront peut-être rester dans l’artisanat logiciel.
Il y a toujours des artisans potiers, céramistes et porcelainiers aujourd’hui. Peu, mais il y en a. Ils répondent à des demandes différentes. Certains sont experts pour des demandes hors normes. D’autres, plus nombreux, visent des objectifs non utilitaires : le luxe, le tourisme, les cadeaux, les symboles, l’héritage historique, l’art.
À quoi est-ce que correspondra l’artisanat dans le logiciel ? Je ne sais pas encore. Peut-être à des systèmes critiques où la confiance exige une main humaine. Peut-être à des créations où l’intention artistique prime sur l’efficacité. Peut-être simplement au plaisir de comprendre ce qu’on construit, ligne par ligne. Il y a un métier à trouver, ce ne sera pas tout à fait le même et il sera probablement plus l’exception que la règle.
Je serai probablement toujours un artisan logiciel. Mes premiers codes datent d’il y a presque 40 ans. On ne remet pas facilement au placard un tel héritage. Je pressens toutefois que cet artisanat ne sera plus mon métier.
Comme les photographes qui n’ont jamais lâché l’argentique et la démarche artistique, je continuerai probablement à coder un peu à la main, mais pour le plaisir. Côté développement on a toujours eu un énorme terrain de jeu hors professionnel avec l’open source. Ça restera probablement.
J’étais resté sur des estimations assez diverses lors de mon dernier billet.
Là on a une collaboration entre Carbone 4 (Jean-Marc Jancovici) et Mistral sur leur plus gros modèle, en regardant le cycle de vie complet : en partant de la construction des équipements et des datacenter jusqu’au réseau et au terminal des utilisateurs finaux, en passant bien évidemment par l’entrainement et le coût des requêtes elles-mêmes.
Je vais laisser la question des minerais parce que je connais trop peu le sujet (vos liens sont les bienvenus).
Le reste je sais comparer.
En équivalent CO2, votre tasse de café du matin vaut dans les 500 pages de texte générées par le modèle de langage le pIus large, entrainement et matériel inclus.
Un repas une fois dans l’année avec 100 grammes de crevettes, c’est l’équivalent de 1 750 de pages de texte générées par le modèle de langage le plus large, entrainement et matériel inclus, soit presque 5 pages par jour.
Une petite portion de 120 grammes de bœuf une seule fois dans l’année c’est l’équivalent en eau de 9 pages de textes générées par le modèle de langage le plus large, chaque jour, toute l’année.
Encore cette fois-ci, mon discours n’est pas de dire qu’on s’en moque, surtout si ces usages s’ajoutent partiellement aux existants — chaque ajout freine la baisse nécessaire de nos émissions — mais il est préférable de garder les ordres de grandeur en tête pour éviter de focaliser au mauvais endroit.
Pour pousser le bouchon : Si une marque de cafetières proposait d’embarquer un petit modèle de langage dans ses appareils pour limiter les fuites ou les tasses trop remplies (c’est un exercice de pensée, les LLMs seraient totalement inutiles pour ça en réalité), je suis certain qu’on entendrait crier à l’assassinat de la terre alors que ça serait très facilement rentable du point de vue des enjeux climatiques et des ressources terrestres.
TL;DR: Arrêtez le café, la viande rouge et les crevettes.
Vu autrement, même en utilisant très massivement l’IA (100 pages générées par jour, ce qui me parait énorme), en le faisant avec le modèle le plus large (pourquoi ?), on est à 41 Kg eqCO2 et 1 800 L d’empreinte d’eau. Ça représenterait 0,5% de la consommation d’un français moyen en eqCO2 (8 tonnes eqCO2 annuelles) et 0,8% en empreinte d’eau (214 000 litres annuels), sachant que ça évite aussi quelques usages donc on ne peut pas se contenter d’additionner.
Bien évidemment, ça a aujourd’hui peu de sens d’imaginer avoir une telle consommation, même pour quelqu’un qui s’y livre massivement, et encore moins en utilisant à chaque fois les modèles les plus larges.
Ça permet toutefois de tracer une limite haute. Sauf rare exception, même les plus gros utilisateurs ne vont pas se retrouver avec un usage significatif par rapport à leur vie actuelle.
Travail n.m. (lat. pop. tripalium ; de tres, trois et palus pieu) instrument de torture puis appareil où l’on place les bœufs pour les ferrer
Quelle mouche a donc piqué notre société pour qu’on veuille sauvegarder le travail ? Je suis des plus heureux que l’automatisation m’épargne une quantité de travaux des siècles derniers, et qu’elle nous ait permis d’avoir un meilleur confort et une meilleure vie.
J’ai une machine à laver le linge et une pour la vaisselle. J’ai une calculette ainsi qu’un micro-ordinateur portable. L’électricité m’apporte aussi la lumière, la cuisson, un ascenseur et certainement cent autres appareils quotidiens.
On est tellement entourés de travail automatisé qu’on oublie que le travail manuel n’est plus que l’exception.
Et tant mieux. Je n’envie pas le temps des labours manuels, des porteurs d’eau, de la coupe du bois de chauffage, des déplacements à pieds peu importe la distance, etc.
C’est la part des richesses apportée à chacun qu’il faut sauvegarder, pas le travail.
Confondre les deux relève quand même d’un aveuglément assez profond.
Richesses, subst. fém. Tout ce qui est susceptible de combler, de satisfaire les désirs, les besoins de l’homme.
Le problème n’est pas que l’automatisation retire du travail, ni même qu’on manque de richesses. Le problème c’est que l’automatisation du travail modifie la répartition des richesses (vers une plus grande concentration).
Dans un monde capitaliste, la richesse appartient d’abord à celui qui contrôle les moyens de production. Il y a longtemps c’était la terre. Désormais ce sont les machines et les infrastructures. Demain ce sera peut-être ce qu’on nomme les intelligences artificielles.
Pour partie, les emplois perdus sont recréés ailleurs. L’enjeu c’est d’assurer la transition. Le chômage et la formation sont des réponses mais elles ne sont que partielles. Ceux qui perdent un emploi ne sont pas forcément les mêmes que ceux qui en trouvent un nouveau.
Malheureusement, nos élus tendent à raboter le chômage et culpabiliser les personnes qui perdent leur emploi. Tout ceci est pourtant structurel, attendu. Il ne reste qu’un RSA de misère qui représente à peine la moitié du seuil de pauvreté.
Pour ne rien gâcher, nos élus tendent à vouloir augmenter le temps de travail, donc concentrer l’emploi et les richesses acquises ainsi sur moins de personnes, avec forcément plus de laissés pour compte.
Préparer la révolution
Ce qu’on nomme intelligence artificielle rend envisageable à une révolution à court terme. On y croit ou on n’y croit pas, mais c’est un avenir possible, crédible.
La différence avec la révolution de la vapeur, de l’automatisation des usines et de l’électronique, c’est la vitesse à laquelle on imagine l’automatisation prendre place.
Ça peut être sanglant, à un point difficilement comparable avec le passé.
Le chômage ne peut pas être la solution. L’espoir dans la création de nouveaux types d’emplois non plus. L’échelle des temps n’est pas la bonne.
Il faut autre chose. D’aucuns parlent de revenu de base, de revenu d’existence ou de salaire à vie. Peu importe. Ça peut être ça ou autre chose, mais on a besoin d’une solution, et on a très peu de temps pour la mettre en place.
Si nous ne sommes pas prêts c’est un autre type de révolution qui peut venir, tout aussi sanglant.
Lâcheté et absence du politique
Sauvegarder le travail est déjà un non-sens à la base. Faire faire du travail inutile pour éviter de penser la répartition des richesses, c’est botter en touche.
Ça peut fonctionner pour quelques mois, quelques années, mais pas plus, et à petite échelle. Face à l’ampleur du changement qu’on entrevoit, ça n’est même pas une possibilité. On mérite un peu plus de hauteur et de vision.
Entre temps, tout ce qu’on obtient c’est de solidifier le rapport de domination entre les détenteurs du capital et ceux qui vendent leur travail, physique ou intellectuel. Comme les second n’ont pas le choix, que les premiers voient venir la possibilité d’agir seuls, on entame un cycle de régressions sociales.
Tout politique qui trouve sa réponse dans la sauvegarde du travail ou qui cède aux chantages à l’emploi des grandes sociétés devrait être hué et renvoyé chez lui. Ceux qui ignorent la question ne méritent guère mieux.
Malheureusement les propositions alternatives ne se croisent pas ailleurs que sur les sites web. Il n’y a aucune vraie action en ce sens.
Le fascisme qui vient
Le fascisme et l’autoritarisme qui ne sont pas étrangers à tout ça.
On arrive au bout d’un système. On le fait perdurer en renforçant le maintient de l’ordre (police, lois, enfermement, pouvoirs de l’exécutif) et en bridant la capacité de s’organiser (répression des mouvements sociaux, guerre ou jeux, menaces sociétales réelles ou fantasmées, renforcement de la polarisation, désignation de coupables, opposer les uns et les autres).
Il n’y a pas de complot, juste un engrenage qui se met en place de lui-même par la lâcheté ou la courte vue de nos responsables politiques.
Les détendeurs du capital sont malheureusement historiquement assez à l’aise voire acteurs dans ces périodes, et c’est encore le cas aujourd’hui. Leur pouvoir s’y renforce.
Ça tient un temps, jusqu’à soit exploser soit sentir très mauvais. Les deux ne s’excluant pas.
L’arrivée des LLMs dans le développement web met pas mal en lumière l’approche incohérente de la plupart des sociétés françaises par rapport aux coûts.
Un Cursor c’est 40$ par mois et par développeur. C’est moins d’une heure de travail d’un développeur standard en France.
On est en dessous des paliers où on devrait même en parler. Si l’autonomie de vos développeurs ne va pas jusqu’à leur faire confiance pour une heure de travail, vous avez pas mal de choses à remettre en cause dans votre organisation.
En réalité, les équipes qui font d’ores-et-déjà un usage intensif de l’IA sur tout leur process — et pas uniquement la côté complétion de code dans l’éditeur —1 ont probablement des factures qui sont au-delà des 100$ ou 200$ par mois et par développeur.
Je ne serais pas étonné que, dans ces équipes, on trouve facilement la demie-journée de travail gagnée qui justifie l’abonnement Ultra à 200$.
En fait, dans mes lectures actuelles, je vois même parler de 2000$ par mois et par développeur. Là on commence à parler. Là ça demande de savoir si on démultiplie vraiment la force de travail ou si on se contente de faciliter le travail.
Peut-être que le coût se justifie déjà, et on a un changement structurel dans la façon de travailler. Peut-être que ce n’est pas encore le cas, mais laisser ceux qui le veulent jouer à ce niveau rend possible de voir apparaitre un tel changement2.
Le vrai enjeu est ici. Je suis heureux de débattre sur comment on peut changer la donne, pas de me battre sur le coûts d’outils qui représentent moins d’une poignée d’heures par mois.
Il parait que le quadratin est désormais devenu un marqueur pour détecter l’usage de textes rédigés par IA. Je ris jaune. Vous trouverez dans mes textes sur ce blog un usage régulier de cette typographie depuis 15 ou 20 ans. Tirez-en les conclusions que vous voulez. ↩︎
On dit que l’innovation nait par la contrainte. Elle nait aussi par l’opportunité et la liberté de sortir du terrain connu pour essayer, sans savoir ce que ça peut donner. ↩︎
Je n’ai pas encore résolu mes interrogations et mes contradictions sur le sujet de l’IA et de son impact sur la planète.
Je retiens toutefois quatre points :
1– Personne ne peut prétendre savoir ce que sera l’avenir.
On ne sait pas à quel point les usages vont s’envoler ou pas. On ne sait pas quels seront ces usages. On ne sait pas s’ils vont remplacer d’autres usages, ni lesquels ni en quelle proportion. On ne sait pas quelle sera la consommation ni la taille des modèles futurs.
On ne sait honnêtement pas grand chose.
Si les projections sont des exercices intéressants, il ne faut pas confondre ça avec des prédictions.
2– Il y a certains futurs possibles où l’impact de ces outils sur la planète pourrait devenir significatif, voire un des enjeux à résoudre dans le cadre de la lutte contre le changement climatique.
Les limites de notre planète et le changement climatique sont à mes yeux peut-être les plus grands enjeux que l’humanité ait eu depuis qu’elle existe, et les conséquences seront probablement désastreuse.
Ajouter au problème ou freiner les mesures d’atténuation sont des risques loin d’être anodins.
3– Il faut garder en tête les ordres de grandeur.
Les estimations récentes descendent à 0.3Wh pour une requête standard à un ChatGPT-like. Si les chiffres varient, on peut dessiner une borne supérieure à 3Wh.
À 0,3Wh1, perdre 5 minutes à rédiger une conclusion ou un listing d’actions, à faire une relecture d’orthographe ou de grammaire sur un document, ou à faire une traduction rapide, c’est entre 5 et 10 requêtes2. Ouvrir le frigo une fois de trop c’est de l’ordre de 30 à 40 requêtes3. Réchauffer des restes 3 minutes au micro-onde au lieu de manger froid c’est 150 requêtes4.
J’ajoute au moins que faire soirée raclette dans l’année c’est de l’ordre de 25 000 requêtes ChatGPT-like par personne, soit 60 tous les jours pendant un an5.
Ça ne veut pas dire que ça n’a pas d’importance, et tout ajout est un ajout de trop, mais se focaliser sur les usages actuels risque de générer beaucoup d’attention au mauvais endroit. C’est vrai autant à titre individuel qu’à titre collectif.
4– Certains usages ont un gain net.
En reprenant les exemples plus haut, utiliser l’IA pour faire traduire, résumer, relire des documents ou rechercher dans ceux-ci plutôt que le faire à la main permet probablement de diminuer l’impact sur la planète.
C’est pareil si l’assistance de l’IA pour chercher et réaliser des menus peut permettre une fois de temps en temps d’éviter un aller-retour au frigo, de jeter un reste ou d’avoir une recette froide plutôt que chaude.
Culpabiliser l’usage par principe ressemble aux mêmes mauvaises idées derrières de bonnes intentions que le tri des emails qui impose de passer du temps sur l’ordinateur ou le pipi sous une douche qui dure plus longtemps.
Je n’ai toujours pas de conclusion.
Ce n’est pas un décompte.
Le second point a tendance à réveiller ma trouille déjà existante sur ce que sera la vie des générations suivantes, dont celle de mon fils.
Je ne veux surtout pas que les autres points incitent quiconque à minimiser ce risque ou son importance.
Agiter le chiffon rouge ne me parait pas pour autant une bonne idée et je pense que ce serait une erreur que de traiter la chose de façon binaire par anticipation.
Pour l’instant j’en suis là.
Comme je disais en introduction, j’ai encore plus de questions que de réponses, et encore des contradictions.
C’est ce qui semble ressortir de mes lectures. Si on prend 3Wh comme référence certaines comparaisons sont moins impressionnantes mais le principe reste. ↩︎
10W pour un ordinateur portable en très faible activité + 20W pour un écran externe de taille classique. ↩︎
Ordre de grandeur de 1kWh par jour, consommation augmentée de 17% pour 15 ouvertures par jour ↩︎
Je n’aime pas ce terme d’IA, intelligence artificielle.
On trompe les gens. On provoque un imaginaire de science fiction avec les robots conscients d’Asimov et des intelligences artificielles éthérées de cyberpunk.
Ce qui est sous nos doigts aujourd’hui ne réfléchit pas. Ce n’est pas de l’« intelligence » au sens où on l’entend communément mais ça reste majeur. Ça reste un potentiel bouleversement sociétal majeur.
J’ai tenté de parler de LLM, large language model, mais c’est cibler une technologie spécifique. Je vais continuer à parler d’IA, mais je n’aime pas ça.
Gardez-vous de vous moquer parce que ChatGPT fait une erreur sur une addition de nombres à deux chiffres. L’enjeu n’est pas là.
Les données ne sont pas publiques, si tant est qu’elles soient connues, et tout n’est qu’estimation à base d’hypothèses.
Il y a à la fois profusion d’information et de chiffres lancés, et en même temps pas tant d’études récentes qui détaillent tout ça. Celles qui existent donnent des résultats parfois extrêmement différents les unes des autres, sur des hypothèses elles-aussi différentes et parfois discutables.
Le tout est aussi dépendant de la taille comme de la génération du modèle utilisé. Certains demandent du calcul parallèle sur plusieurs GPU dédiés, d’autres sont assez petits pour tourner directement sur le téléphone. La consommation énergétique est en fonction.
Bref, plein de choses à lire, sans qu’on puisse facilement en déterminer la fiabilité des estimations ou la pertinence des hypothèses. Chacun trouvera son bonheur en fonction des biais qu’il aura au départ.
Je n’ai toutefois pas été le seul à faire ces recherches, et il y a des réponses intéressantes.
Si je ne devais donner qu’un lien pour commencer, c’est Andy Masley, qui a tenté l’exercice de tout fouiller pour tirer ses conclusions et qui a ensuite itéré avec les réactions qu’il a eu, liant plein de sources et de réactions sur le web, avec tendance à remettre ses chiffres et conclusions en cause quand c’est pertinent (attitude qui me donne confiance). Vous pouvez commencer par le dernier épisode et suivre lien à lien.
Note : Ce qui suit ne porte pas de jugement de valeur. Je ne dis pas si c’est bien, grave, ou quoi que ce soit. Tirez-en vous-mêmes vos conclusions.
Elle est de combien cette consommation énergétique alors ?
Les études sérieuses récentes parlent d’entre 0.3 et 2.9Wh par requête ChatGPT, en faisant référence à des générations différentes1, et certaines avec des hypothèses d’entrée/sortie d’un ordre de grandeur plus grand que la requête moyenne. On trouve aussi du 0,2Wh pour LLaMA-65B. HuggingFace donne une estimation énergétique de chaque requête, et j’obtiens plutôt du 0,18Wh pour Qwen 2.5 en 72B.
Les pessimistes prendront 3Wh, les optimistes 0.3Wh2. Les deux sont crédibles.
Malheureusement ça veut aussi dire que toute conclusion tient en équilibre sur une donnée dont on ne connait même pas l’ordre de grandeur réel.
Si en plus on ajoute les modèles de taille inférieure comme les chatGPT-nano et les modèles 5B dans l’équation, on peut certainement encore divider par 5 ou 103 les estimations optimistes. Si on ajoute les modèles thinking, on peut multuplier par 2 à 5 les estimations pessimistes.
Andy Masley utilise la vision conservatrice du 3Wh comme ordre de grandeur en se disant que « ça sera en dessous » et que donc c’est un coût maximum. Je suis mitigé sur l’approche, parce que du coup les discussions se focalisent sur ce chiffre qui peut (ou pas) être encore un voire deux ordres de grandeur trop grand suivant ce à quoi on fait référence.
Ça veut dire combien en équivalent CO2 ?
Une grosse partie des datacenters sont aux USA. Les USA ont une moyenne de 365 g d’eqCO2 par kWh mais ça reste très hétérogène. La Californie qui concentre une bonne partie de l’activité fait moitié moins.
Tout n’est d’ailleurs pas non plus aux USA. Si vous utilisez un LLM hébergé en France, les émissions tombent à 56 g d’eqCO2 par kWh, soit 6 fois mois.
Il est dans tous les cas difficile de lier les datacenters à la moyenne d’émission de leur région vu leurs efforts pour se lier à des sources d’énergie à faibles émissions plutôt au mix général.
Bref, là aussi, même l’ordre de grandeur n’est pas une évidence.
Malheureusement ça se multiplie : Si l’estimation énergétique fait une fourchette d’un ordre de grandeur, que l’estimation d’émission fait une fourchette d’un ordre de grandeur, le résultat c’est qu’on a une incertitude de deux ordres de grandeur à la fin, et prendre « au milieu » n’a aucun sens.
Bien entendu, si on ne se fixe pas sur une taille de modèle précise, on peut ajouter encore un ordre de grandeur d’incertitude à tout ça.
La fourchette finale est comme vous dire « c’est quelque chose entre le Paris-Versailles aller-retour et le tour de la terre complet ». Difficile de raisonner avec ça.
Donne nous un chiffre !
Va savoir… vu les estimations avec des ordres de grandeurs quasiment inconnus, ma seule conclusion est « je ne sais pas ».
Je vais quand même reprendre l’idée d’Andy Masley avec quelques hypothèses.
ChatGPT ou équivalent 70B, borne pessimiste, datacenter en Californie
0,550 gr d’éqCO2 par requête
ChatGPT ou équivalent 70B, borne optimiste, datacenter en Californie
0,055 gr d’éqCO2 par requête
ChatGPT-nano ou équiv. 5B, borne pessimiste, datacenter en Californie
0,055 gr d’éqCO2 par requête
ChatGPT-nano ou équiv. 5B, borne optimiste, datacenter en Californie
0,005 gr d’éqCO2 par requête
ChatGPT-nano ou équiv. 5B, borne optimiste, datacenter en France
0,0017 gr d’éqCO2 par requête
Rentabilité
Un ordinateur fixe avec son écran externe consomme dans les 60 watts4, donc 1 Wh par minute d’utilisation. Avec nos chiffres plus haut, une requête LLM devient rentable énergétiquement si elle évite entre 2 secondes et 3 minutes de travail5.
On trouve aussi qu’une requête de recherche Google consomme 10 fois moins qu’une requête ChatGPT6. Tourné autrement, la requête au LLM est rentable si elle vous épargne 10 recherches Google. Si vous utilisez un modèle nano, on devrait être au même ordre de grandeur qu’une requête Google.
Si on mélange les deux (pendant l’utilisation de votre ordinateur vous allez faire des recherches, pendant vos recherches vous allez utiliser l’ordinateur, et faire tourner d’autres serveurs web), l’équivalence énergétique semble atteignable rapidement.
Ok, mais c’est beaucoup quand même, non ?
Je vais éviter l’opinion subjective. Le mieux est de prendre quelques exemples à partir du comparateur de l’Ademe :
Une simple tartine de beurre sans confiture le matin7 c’est l’équivalent d’entre 144 requêtes et 39 500 requêtes LLM dans la journée.
Prendre 100 grammes de crevettes8 au repas une fois dans l’année, c’est l’équivalent de faire au travail toute l’année entre plus de 2 requêtes par jour et plus d’1 requête par minute.
Si vous décidez de remplacer la vieille armoire de mamie qui commence à lâcher plutôt que de faire un rafistolage bien moche avec clous et planches, c’est l’équivalent de faire entre une requête toutes les 16 minutes et 17 requêtes par minute sur toute votre vie à partir de vos 6 ans, 16 heures par jour9 .
Si certains parlent d’interdire les IAs pour des raisons énergétiques, ce que je trouve comme chiffre rend toutefois bien plus efficace et pertinent d’interdire de jeter des meubles ou de manger des crevettes ou des raclettes10, à la fois sur l’ordre de grandeur et sur le service rendu.
Ce que je ne dis pas
Parce que je sais que je vais avoir pas mal de réactions :
Je ne nie pas l’impact environnemental
Je ne dis pas que c’est rien. Ce n’est pas rien.
Je ne sais pas mesurer à quel point on risque d’utiliser ces outils dans le futur, et donc le potentiel effet de masse
Je ne dis rien ici de la pertinence, de l’utilité ou de la dangerosité de ces outils hors des questions énergétiques
Je ne dis pas oui ou non à un usage ou un autre, je me contente de donner les chiffres et l’incertitude que j’ai trouvés
C’est un état de réflexion, pas une conclusion
Bien évidemment, si j’ai fait une quelconque erreur, ce qui est loin d’être impossible, vous êtes les bienvenus à me le signaler.
Même chose si vous avez des liens à ajouter au débat. Je ne les ai pas forcément lu, et ça peut évidemment changer mon texte.
Sans avoir de données publiques, les prix des différentes générations crédibilisent que la consommation énergétique a tendance à bien baisser avec le temps ↩︎
C’est potentiellement 30% de plus si on prend en compte l’entrainement des modèles. J’ai fait le choix de ne pas le prendre en compte parce que justement on parle d’un futur où on aurait un usage massif des LLMs (les émissions d’aujourd’hui sont peu signifiantes). Dans ce futur, si on répartit le coût d’entrainement sur la totalité des usages, on a des chances que ça ne soit pas si significatif que ça. Dans tous les cas, même 30% ne change pas les ordres de grandeur de la suite. ↩︎
Je me base sur la différence de prix entre ChatGPT-4.1 et ChatGPT-4.1-nano ↩︎
On peut diviser par deux pour un ordinateur portable ↩︎
Suivant qu’on est sur un équivalent ChatGPT avec un scénario de consommation pessimiste ou un équivalent équivalent ChatGPT-nano hébergé en France avec un scénario de consommation optimiste ↩︎
Là aussi, il semble que ce soit une borne haute, probablement basée sur la borne haute de la consommation énergétique de ChatGPT ↩︎
10 grammes de beurre par tartine, à 7,9 kg d’eqCO2 par kg de beurre, donc 79 grammes d’eqCO2 par tartine. ↩︎
100 grammes de crevettes, à 20 kg d’eqCO2 par kg de crevettes, donc 2 kg d’eqCO2 la portion de crevettes. ↩︎
16 heures par jour parce que bon, à faire ça toute votre vie on peut quand même vous laisser 8 heures par jour pour dormir, manger, prendre une douche, vous déplacer, etc. ↩︎
Ce n’est pas juste une remarque amusante ou du whataboutisme. Je suis en fait sacrément sérieux. L’alimentation de source animale est un des éléments majeur de nos émissions, bien bien au-delà de ce que pourrait devenir l’IA dans les scénarios pessimistes sur le futur. Mettre une taxe carbone voire des interdictions ne me parait pas totalement déconnant. Oui, j’en suis là sur mon rapport au réchauffement climatique, c’est dire à quel point je ne prends pas la chose à la légère et à quel point je serais prêt à bannir l’IA si j’avais l’impression que ce serait le problème. ↩︎
Malheureusement j’ai peur que cette réponse soit la même pour la plupart des menaces, peu importe le domaine. Même le réchauffement climatique commence à passer au second plan dans mon échelle de menace.