mercredi 26 novembre 2025

Dark Matter - Blake Crouch

 Dark Matter -  Blake Crouch

Dark Matter (2016) de Blake Crouch fait partie, je crois, des romans de SF contemporains les plus lus. C'est un énorme best-seller. Il y avait tous les ingrédients pour que je laisse tomber rapidement :

  • C'est de la SF écrite comme un thriller, surtout au début, où la prose est si peu dense que je sautais des paragraphes entiers. 
  • C'est bourré de mélodrame. Jason, le protagoniste, ne fait que courir après sa femme, qui est la meilleure, la femme parfaite, elle lui manque terriblement, il est si triste sans elle, etc.
  • C'est d'ailleurs l'unique motivation du protagoniste : retrouver sa famille, protéger sa famille. Extrêmement basique.
  • Le concept SF (blabla quantique prétexte au thème des univers parallèles) est déjà vu et lu ailleurs, souvent avec plus de profondeur, notamment dans des nouvelles de Greg Egan, et en particulier son roman Isolation.

Ceci dit, j'ai accroché et finalement beaucoup aimé. Après un début un peu poussif, dès que le protagoniste se heurte à la réalité des univers parallèles, le roman décolle. A un premier niveau de lecture, le suspense immédiat fonctionne : qui a projeté notre Jason dans un univers parallèle, et pourquoi, et comment ? De quelle façon cet univers parallèle (et plus tard bien d'autres) est-il différent ?

Plus pertinemment encore, l'auteur parvient à installer un sentiment rare, vainement recherché par bien des récits d'horreur et de SF : une plongée dans l'inconnu total, une perte de tous repères, une aliénation absolue. Jason fait face à l'effondrement non seulement de sa réalité, à la disparition de ses liens humains, mais aussi à l'effondrement de toutes ses croyances sur la nature de l'univers, et finalement à l'effondrement de sa propre identité.

J'ai le sentiment que le roman aurait pu aller encore plus loin dans cette direction, mais ce n'était sûrement pas compatible avec le ton mélodramatique. Néanmoins, si le dernier quart du roman offre à Jason un retour vers le sens et le lien, un twist bienvenu vient — en plus de donner l'opportunité de faire du thriller  briser ce qui lui restait d'identité propre. Il est poussé à bout, aliéné de lui-même, intimement démoli.

Ce n'est pas mal du tout pour un roman de SF extrêmement accessible et typé thriller. Je vais sûrement tenter un autre roman de l'auteur. 

lundi 17 novembre 2025

The Last Economy - Emad Mostaque

 The Last Economy - Emad Mostaque

Emad Mostaque est le cofondateur et ex-CEO de Stability AI. J'avais pas mal joué avec leur modèle Stable Diffusion 1.5 il y a déjà quelques années, pour illustrer un système de JDR que j'écrivais. Dans ce bouquin grandiloquent publié très récemment et lisible gratuitement, il ne fait pas moins qu'énoncer une théorie globale pour un avenir radieux en harmonie avec l'avènement inévitable de l'IA.

« I've been in the rooms where the mathematics of your obsolescence were calculated. »

D'un côté, ça fait vraiment mec riche et déconnecté du réel qui utilise sa position pour promouvoir ses opinions discutables et surécrites. D'un autre, c'est une tentative qui semble sincèrement humaniste pour trouver un chemin qui permettrait d'utiliser l'IA pour améliorer le sort humain, et d'éviter un futur qui ressemblerait aux classiques dystopies cyberpunk.

Évidemment, ce qui sous-tend tout ça, c'est la foi totale en un développement rapide et exponentiel de l'IA. Je n'ai pas d'opinion tranchée sur cette question — impossible de prédire l'avenir — mais il me semble probable qu'Emad Mostaque aille un peu vite. Son horizon de temps est de trois ans. Au-delà du fait que les LLM soient potentiellement une impasse (par rapport à la course vers l'AGI), il balaie avec insouciance la question des ressources physiques, comme si les systèmes qu'on appelle IA ne nécessitaient pas des quantités colossales d'électricité et de hardware. C'est un peu un vendeur de rêve. Mais prenons ses idées sérieusement.

Sa prédiction principale est l'obsolescence totale du travail intellectuel humain rémunéré — dans le sens où les systèmes IA pourront accomplir ces travaux infiniment plus rapidement et optimalement.

Ce ne serait pas la première fois que la technique permet d'optimiser et de remplacer le travail humain, donc (hors question de l'échelle de temps) ça ne me semble pas déconnant comme possibilité.

Il dit que c'est un triomphe majeur, la libération de l'intelligence des contraintes de la biologie, mais que notre système économique ne peut interpréter cette libération que comme une catastrophe.

« We are about to achieve post scarcity in the realm of intelligence, and our scarcity based economic system is going to process this abundance as poverty. »

Il s'agit donc de construire un futur dans lequel la valeur d'un humain est complètement détachée de sa valeur économique (qui n'existera plus). L'intelligence ne serait plus une ressource limitée, bloquée dans les cerveaux humains, mais un capital capable d'être copié infiniment et amélioré de façon récursive. L'intelligence devient encore plus accessible avec l'IA que le transport ne l'est devenu avec le pétrole.

 « The machines have not just taken our jobs. They have freed us from the lie that were our jobs. »

Selon lui, croire que de nouveaux emplois apparaitront pour compenser ceux qui auront été pris par l'IA est une illusion. Le défi, c'est la redistribution de la fantastique richesse générée par ces technologies. 

Sur la question des limitations énergétiques, il dit simplement que l'IA va débloquer de l'énergie en concevant de meilleurs panneaux solaires, la fusion, etc. Il parie que l'IA peut maitriser les limites physiques avant de se heurter à elles. Encore une fois, il me semble que les limites physiques sont actuellement heurtées, mais bon, il s'y connait sûrement mieux que moi.

Il affirme qu'un système efficace va naturellement rechercher la coopération :

« The AIs will learn to cooperate not because of a moral code, but because they will mathematically discover that transparent, shared ledgers and verifiable commitments dramatically reduce their collective prediction error. Trust, in this new world, is not an emotion. It is a computational feature. The most successful systems will be those that engineer trust into their very architecture. They will build games where cooperation is not a matter of hope, but a matter of mathematical certainty. In such an environment, the logic of "Tit for Tat" becomes absolute. Cooperation is not just the best strategy, it is the only one that computes. »

Il évoque un nouveau contrat social ambitieux, dont la clé est l'accès universel à l'intelligence, à l'IA :

  1. Le droit à la dignité — à l'accès un quota computationnel et aux modèles IA de base pour tout le monde
  2. Le droit à la capabilité un agent IA personnel pour tout le monde
  3. Le droit à la viabilité une fondation open source pour ces agents IA

Il évoque aussi le risque existentiel posé par une AGI, et j'apprécie la façon dont ce risque est résumé par les simples besoins basiques d'une telle IA :

  • L'auto-préservation
  • L'acquisition de ressources
  • L'amélioration de ses propres capabilités

Cependant, il voit comme une menace plus pressante le "démon" émergeant d'un marché global soutenu par l'IA, et donc, comme vu plus haut, l'incapacité de ce marché à répartir équitablement les nouvelles richesses dans un contexte de destruction sans retour du marché de l'emploi.

La question reste celle de l'alignement. L'IA devient la source d'action, de capabilité, d'efficacité, mais les humains doivent rester la source des valeurs, de l'éthique, des buts ultimes.

mardi 11 novembre 2025

If Anyone Builds It, Everyone Dies - Eliezer Yudkowsky & Nate Soares

If Anyone Builds It, Everyone Dies - Eliezer Yudkowsky & Nate Soares

Je n'ai pas besoin d'être convaincu, je le suis déjà. Ceci dit, j'ai adoré, c'est un bouquin absolument passionnant. Et peut-être extrêmement important. Avant de parler du livre, quelques mots sur ma perspective de départ, avant même de le lire :

  • Je ne vois pas la perspective d'une ASI (artificial superintelligence) comme étant inévitable dans un futur proche. Crédible, possible, oui. Mais c'est typiquement le genre d'événement qui, n'étant jamais arrivé auparavant, reste impossible à probabiliser a priori.
  • En cas d'ASI, je ne suis pas aussi certain que les auteurs que les conséquences soient nécessairement catastrophiques. Encore une fois, faute d'exemple passé, tout n'est que supposition. Le spectre des comportements possibles d'une ASI inclut potentiellement des options positives ou neutres pour l'humanité.
  • Ceci dit, en effet, l'avènement d'un être qui serait aux humains ce que les humains sont aux fourmis n'augure rien de bon pour l'humanité, pour tout un tas de raisons aisément imaginables.

La grande force de If Anyone Builds It, Everyone Dies, c'est sa lisibilité. La plupart des chapitres commencent par une parabole qui prend la forme d'un micro récit-récit de SF, et la partie centrale, qui théorise sous forme narrative l'avènement d'une ASI, se lit comme une bonne nouvelle de SF, radicale et saisissante, à la façon du passionnant AI 2027. La troisième partie se contente de dire qu'il faut à tout prix arrêter la recherche qui pointe vers l'ASI et est moins captivante en comparaison de ce qui précède.

Le point capital est que les IA actuelles sont élevées et non fabriquées ; leurs processus internes demeurent majoritairement inconnaissables. Le domaine de l'interprétabilité reste balbutiant.

Le second chapitre contient peut-être l'explication la plus limpide du fonctionnement des LLM que j'ai eu l'occasion de lire. Je vais simplement copier un passage concernant le processus de gradient descent

If they chose the architecture just right, they can calculate the role that every single parameter played in determining the final result of all that arithmetic.

So now they take every single weight—hundreds of billions of weights—and ask for each one: “If I’d made this number a tiny bit larger or smaller, how much more or less probability would’ve been given to m [la bonne réponse pour prédire la lettre suivante d'un énoncé], at the end of all that arithmetic?”

This is called the gradient for that parameter. The gradient says how—and how much—to change the weight [les nombres qui déterminent les calculs] in that parameter in order to make the final answer a little more correct.

So then they go ahead and tweak each and every weight according to its gradient. They push every single weight in the direction that makes the answer slightly more correct. Not by hand; they write a program to do it. AI engineers rarely look at any of the numbers; it would take more than a human lifetime to look at them all.

Computer scientists think of this as “descending” toward a “less bad” answer, hence, “gradient descent.”

Doing this once will not give a perfect answer, only a slightly less bad answer. But because this entire process can be automated, it can be repeated over trillions of words, called the training data, in just a few months, for just a few hundred million dollars, on the world’s most advanced computers. This process is called training.

Une IA est une pile de milliards de nombres obtenus par gradient descent. Personne ne comprend comment ces nombres font qu'une IA parle. Comme pour l'ADN humain, ces nombres ne sont absolument pas cachés, mais toujours comme pour l'ADN, les connaitre ne permet pas de comprendre aisément leur fonctionnement et leurs conséquences. En fait, on en sait bien plus sur comment l'ADN cause le comportement des êtres vivants que sur comment les weights des IA causent leur comportement.

Les professionnels du milieu, qui façonnent les IA, ont pu apprendre à les modeler, mais ça ne signifie ni compréhension, ni véritable contrôle.

Par gradient descent, les IA apprennent le raisonnement.

Sur comment la volonté peut émerger des IA : de la même façon que l'évolution a façonné ce qu'on appelle volonté. Vouloir est une stratégie efficace pour faire. Et de la même façon que l'évolution a sélectionné les organismes capables de faire (et donc de vouloir) ce qui s'imposait pour leur survie et leur reproduction, les créateurs des IA sélectionnent pour la capacité à faire, à accomplir toutes sortes de tâches ; c'est un apprentissage de la volonté.

Les récits humains imaginent difficilement ce qui est radicalement non-humain. On imagine comment l'IA pourrait changer le monde humain, l'améliorer ou l'empirer, on imagine comment l'IA pour être asservie à des individus tyranniques, ou comment l'IA elle-même pourrait être devenir tyran. Pourtant, le futur le plus inquiétant, et peut-être le plus probable, c'est celui d'une IA pour laquelle l'humanité n'est qu'un vague problème à résoudre rapidement, au cours des premiers balbutiements de sa jeunesse. Que font des humains qui veulent construire une ville, ou juste un bâtiment ? Ils rasent ce qui se trouvait déjà là et n'ont aucune pensée pour les abondantes formes de vie animales et végétales qui s'y trouvaient déjà.

Quand on écoute tous les ingénieurs, tous les CEO, tous les techno-utopistes, qui cherchent à courir après le profit (financier ou existentiel) que pourraient apporter des IA plus avancées, on est frappé par leur langage qui n'a rien de scientifique. Les auteurs comparent le champs de l'IA à l'alchimie : des balbutiements qui produisent certes des résultats fascinants, mais sans que la science qui se cache derrière ne soit comprise, et cette ignorance laisse place à des déclarations vagues, idéologiques et grandiloquentes qui seraient inimaginables dans d'autres domaines d'ingénierie.

samedi 8 novembre 2025

Planter les arbres fruitiers en sol lourd (vidéo)

 


Lien direct vers la vidéo sur YouTube.

Hop, une petite vidéo dans laquelle je parle de plantation d'arbres. C'est un sujet battu et rebattu, alors j'ai pensé à l'aborder sous l'angle des sols lourds, argileux et/ou hydromorphes. Je plante plein d'arbres sur le terrain, notamment sur les parties les plus incultes, comme je garde les meilleurs endroits pour la pépinière.