L’enfer numérique est le nouveau livre de Guillaume Pitron, auteur de l’excellent La guerre des métaux rares. C’est un essai de type journalistique, avec les défauts inhérents : une écriture qui se survole, des tas de citations que l’auteur essaie d’intégrer avec un dictionnaire des synonymes en disant à la chaîne que Machin « analyse » et Truc « décrypte »… J’ai globalement été moins passionné que par son livre précédent, peut-être parce que je suis un peu plus familier du sujet, mais je chipote : on reste face à de l’essai riche et dense, terriblement actuel, et le monde gagnerait à ce qu’autant de gens que possible le lisent, ce qui n’est pas un petit compliment.
En somme : le numérique n’est pas « dématérialisé », au contraire, il est très matériel, et il pèse lourdement dans les besoins énergétiques de l’humanité, et donc sur le réchauffement climatique.
Le rêve du numérique vert est une illusion : les « villes intelligentes », les smart cities, ont un impact plus négatif sur l’environnement que les villes qui ne sont pas smart. Et ça ne va pas s’arranger : la consommation électrique du numérique augmente de 5 à 7 % par an. Les réseaux et datacenters (centre de données), eux, bouffent 12,5 % de la production mondiale du cuivre et 7 % de celle de l’aluminium « Le numérique engloutit une large part de la production mondiale de ces métaux : 15 % du palladium, 23 % de l’argent, 40 % du tantale, 41 % de l’antimoine, 42 % du éryllium, 66 % du ruthénium, 70 % du gallium, 87 % du germanium, et même 88 % du terbium. » Tout un tas d’industries hyper polluantes, donc. Et cette dimension PHYSIQUE du numérique est incroyablement oubliée, voire taboue : Guillaume Pitron et ses collaborateurs en font l’expérience directe.
Croissance de l'exigence en matières premières |
Pour résumer, il ne suffit pas d’être bas carbone, il faut être « basse ressource ». Après tout, on n’émet pas directement du carbone en surfant sur le net : en revanche, les processus de fabrication de tous les objets nécessaires à cet acte, en plus des besoins électriques, non seulement émettent beaucoup de carbone, mais sont polluants de tout un tas d’autres façons. Par exemple, le fabriquant de circuits imprimés taïwanais TSMC consommerait 156 000 tonnes d’eau par jour et consommerait en électricité l’équivalent de 2 ou 3 centrales nucléaires… sauf que cette électricité vient de sources plus polluantes que le nucléaire, comme des centrales à charbon. Et les centrales à charbon sont encore monnaie courante dans les pays occidentaux, comme les USA ou l’Allemagne.
Les datacenters, eux, sont des monstres en perpétuelle expansion. Des centaines d’entre eux sont plus grands que des terrains de foot, le plus grand, près de Pékin, fait 100 000 mètres carré, soit 110 terrains de foot. Un datacenter de taille moyenne peut consommer 600 000 mètres cube d’eau par an pour se refroidir — donc bien plus pour les géants, et ceci dans un contexte où, en raison du réchauffement climatique, l’eau deviendra le pétrole du 21ᵉ siècle. Les datacenters représenteraient actuellement 2 % de la consommation électrique mondiale, et, vu la croissance exponentielle du secteur, ce chiffre pourrait être multiplié par 5 d’ici 2030.
Comme on l’a vu plus haut, la technique ne résoudra pas le problème de croissance des besoins en énergie. C’est l’effet rebond : plus une ressource est employée avec efficacité, plus cette ressource est utilisée, annulant ainsi les économies offertes par l’efficacité sur l’autel d’une échelle perpétuellement croissante. C’est le cas par exemple des voitures : elles consomment de moins en moins, mais il y a de plus en plus de voitures.
Ainsi, si les voitures autonomes parviennent à s’établir, elles participeront à l’explosion de la quantité de data produite — et donc stockée au prix de matières premières et d’électricité — du fait de leur multitude de capteurs, sans compter la quantité toujours croissante d’électronique qu’elles exigent. Les voitures autonomes pourraient produire un gigaoctet de data par seconde.
Quant aux câbles océaniques qui « sont » l’internet, s’ils ne sont pas vraiment problématiques sur le plan des ressources, ils sont le rappel ultime du caractère physique du numérique. Les GAFAM se les approprient d’ailleurs à toute vitesse. Les câbles, guère plus épais qu’un tuyau d’arrosage, nécessitent des réparations constantes : sans ces soins, l’entropie naturelle (courants marins, tempêtes, etc.) mais aussi les bateaux de pêche élimineraient l’internet en quelques mois. Les câbles deviennent obsolètes en moins de 10 ans, ainsi les océans sont tapissés de millions de kilomètres de câbles délaissés.
Quel avenir donc pour le net ? Quand est sincèrement environnementaliste, difficile de regarder cette croissance exponentielle et gourmande en ressource sans vouloir y mettre un frein. L’internet, espace de liberté, n’est pourtant pas gratuit : sont coût pour la biosphère et sa participation au changement climatique ne vont faire que croître. Je ne serais pas contre un internet limité : disons, l’aspect textuel d’internet resterait illimité, et donc l’accès à la connaissance, mais toutes les fonctions plus gourmandes (hors médecine, etc.) ne jouiraient plus de ce privilège. Je ne suis pas naïf : non seulement c’est infiniment plus complexe que ça, mais, surtout, et comme pour le reste, une telle auto-limitation n’arrivera jamais volontairement — mais elle arrivera certainement par la force des limites naturelles.
Volume annuel de données produites dans le monde (en zettaoctets) |