jeudi 19 février 2026

Something Big Is Happening - Matt Shumer

 

Encore un article viral sur les avancées fulgurantes de l'IA. C'est écrit par un entrepreneur dans le domaine, et évidemment, difficile à priori de faire la part entre l'optimisme débridé, voire l'autopromotion, et la réalité de la technologie. Et ce particulièrement quand on n'est développeur, car c'est en particulier de la génération de code qu'il s'agit ici. De façon plus vaste, il s'agit plus encore de l'application de ce progrès pour remplacer le travail humain en général. Il faut quand même préciser qu'il y a tout un tas de signaux qui vont dans le sens inverse, des signaux qui poussent au scepticisme. Mais quand on lit ce qui suit, difficile de ne pas prendre la technologie au sérieux :

I am no longer needed for the actual technical work of my job. I describe what I want built, in plain English, and it just... appears. Not a rough draft I need to fix. The finished thing. I tell the AI what I want, walk away from my computer for four hours, and come back to find the work done. Done well, done better than I would have done it myself, with no corrections needed. A couple of months ago, I was going back and forth with the AI, guiding it, making edits. Now I just describe the outcome and leave.

Let me give you an example so you can understand what this actually looks like in practice. I'll tell the AI: "I want to build this app. Here's what it should do, here's roughly what it should look like. Figure out the user flow, the design, all of it." And it does. It writes tens of thousands of lines of code. Then, and this is the part that would have been unthinkable a year ago, it opens the app itself. It clicks through the buttons. It tests the features. It uses the app the way a person would. If it doesn't like how something looks or feels, it goes back and changes it, on its own. It iterates, like a developer would, fixing and refining until it's satisfied. Only once it has decided the app meets its own standards does it come back to me and say: "It's ready for you to test." And when I test it, it's usually perfect.

C'est aussi la porte grande ouverte à l'amélioration auto-récursive des IA. Après tout, Anthropic et OpenAI générèrent déjà une bonne partie de leur code avec leurs propres IA. D'ailleurs, à propos du dernier modèle d'OpenAI :

"GPT-5.3-Codex is our first model that was instrumental in creating itself. The Codex team used early versions to debug its own training, manage its own deployment, and diagnose test results and evaluations."

Évidemment, l'idée n'est pas que 100% du travail de développeur sera remplacé par ces systèmes. Mais peut-être 90%... Et aussi, à priori, ça pourrait contaminer tout travail qui se déroule via un ordinateur :

The experience that tech workers have had over the past year, of watching AI go from "helpful tool" to "does my job better than I do", is the experience everyone else is about to have. Law, finance, medicine, accounting, consulting, writing, design, analysis, customer service. 

 AI isn't replacing one specific skill. It's a general substitute for cognitive work.

I think the honest answer is that nothing that can be done on a computer is safe in the medium term. If your job happens on a screen (if the core of what you do is reading, writing, analyzing, deciding, communicating through a keyboard) then AI is coming for significant parts of it. 

L'auteur donne quelques conseils : 

  1. Devenir urgemment familier avec ces outils, particulièrement les versions payantes, et manuellement sélectionner les modèles les plus récents et performants
  2. Ne pas juste les utiliser pour des questions rapides, mais les pousser à faire le travail que vous faites. Penser automatisation.
  3. Le temps pour apprendre à utiliser l'IA est limité.

Bien entendu, difficile à dire. En tous cas, c'est passionnant : de la pure SF qui progresse à une vitesse si rapide qu'il est facile pour qui n'a pas un pied dans le domaine de rien remarquer.

Le fait est que j'ai essayé la génération de code et d'applis, et même pas avec les tout derniers modèles. C'est absolument impressionnant. Et quand on sait le peu de temps qu'il a fallu pour que les autres types d'IA génératives parviennent à des résultats impossibles à distinguer du réel ou d'un travail humain...

2 commentaires:

  1. Un "insider" d'une grande entreprise me disait récemment que l'objectif, en 2026, serait de produire trente pour-cent du code à l'aide des modèles de langage. Les développeurs qui n'ont pas déjà commencé à utiliser ces outils vont ainsi être contraints de s'y acclimater vivement. Mais l’intéressant, je crois, est que le ratio visé n'est pas si important que ça. Et pour cause, hormis la nécessaire inertie au sein des grandes organisations, on ne saurait bâtir des infrastructures solides à l’aide d’outils émergents, aussi prometteurs soient-ils.

    Par ailleurs, quel que soit le niveau de perfection et d’automatisation atteints, personne de sérieux ne déploierait ses logiciels sans en passer par un processus de révision. L’intelligence artificielle peut certes être mise à contribution pour cela aussi — et elle l’est déjà —, mais je doute que l’on soit prêt de sitôt à se passer totalement de la relecture d’un développeur expérimenté, ne serait-ce que pour des raisons de conformité du code. Car la sécurité du code entraîne la responsabilité légale des entreprises. Aussi, le code que produisent les modèles de langage dépend d’infrastructures conçues par l’humain (langages de programmation, bibliothèques, etc.), qui peuvent les orienter vers des solutions périlleuses, les modèles faisant encore essentiellement preuve d’imagination reproductrice, plutôt que d’imagination créatrice.

    Enfin, si le développeur demeurera sans doute nécessaire dans cette nouvelle donne, deux problèmes vont rapidement s’opposer aux gains indéniables de productivité que les modèles de langage permettent :
    - Seuls les développeurs expérimentés pourront faire office de superviseurs efficaces, et ceux qui ne maîtrisent pas l’algorithmique et la grammaire du code devront être pris en charge d’une manière ou d’une autre par l’économie pour que le contingent des superviseurs soit régulièrement renouvelé, ce qui signifie une relativisation des gains de productivité ;
    - La suppression d’un pan essentiel du travail du développeur, qui est la solution de problèmes, met le métier au risque de la perte de sens et les entreprises à celui d’une difficile rétention de leur main d’œuvre, à moins d’agir sur le salaire, etc. Mon insider mettait justement en perspective la fatigue positive due au travail intellectuel avec son expérience de l’ennui face à la génération de code. Il suffit d’imaginer traverser à longueur de journées des manuels de problèmes mathématiques en se référant systématiquement aux solutions à l’envers, sans jamais chercher à les construire d’abord soi-même. Cela pointe vers une nouvelle relativisation des gains de productivité attendus.

    RépondreSupprimer
    Réponses
    1. La façon dont ces technologies vont se déployer dans la société reste un peu floue, mais la question du sens est essentielle oui. Le manque de sens est déjà une telle plaie dans le monde du travail, je ne sais pas si l'IA arrangera ce problème pour la majorité de la population. On peut penser au métier de rédacteur, sans parler des traducteurs, qui ont déjà traversé ces dernières années ce qui se profile peut-être pour les développeurs...

      Quand on se projette à plusieurs années, ou plusieurs décennies, le champ des possibles est énorme, et on peut imaginer dans 20 ans un monde radicalement différent, porté par ces technologies. Ou pas. On pourra en parler bientôt pendant un trajet en voiture je crois ;)

      Supprimer