Cet article énonce une conjecture, une hypothèse. Tous les commentaires pour la confirmer ou l’infirmer sont les bienvenus.
Je remercie d’ores et déjà pour leurs apports : Sylvain Delaître, Catherine Esteyries, Claude Salzman, et Jean-Jacques Urban-Galindo.
Au milieu de nos années 2020, l’effervescence actuelle autour du développement d’applications exploitant l’IA générative est impressionnante. A partir de la « magie » des outils comme ChatGPT, pour dépasser les limites du simple « chat », on a vu fleurir en quelques mois les RAG, les Knowledge Graphs, le fine tuning, le few shots learning, et maintenant les agents, et multiagents. Le tout avec des propositions permanentes pour doter ces systèmes de capacités de raisonnement.
Ainsi que toutes sortes d’outils d’ingénierie visant à gérer les données d’entrainement, contrôler la qualité des résultats, orchestrer l’ensemble, comparer les différents modèles, aider à rédiger des prompts, créer des « stacks IA », définir ce que doit être le « AI-ops », etc … Sans parler des IA qui évolueraient toutes seules, et les standards comme MCP pour orchestrer un monde panagentique.
Le tout dans un bouillonnement de centaines, voire milliers de milliards de dollars d’investissement annoncés, pour toujours densifier ce que j’appelle l’Ordinaterre. Voir https://www.linkedin.com/pulse/lordinaterre-en-anglais-computearth-jean-rohmer-lhece/
Une telle concentration de changements de pratiques et d’innovations est rare en Informatique. A quand remonte la dernière ?
On peut dater la précédente effervescence de la même ampleur lors du « moment Web » trente ans plus tôt au milieu des années 1990, avec l’apparition des outils autour de HTTP, serveur Apache, langages comme Javascript, formats CSS, l’apogée du Quatuor LAMP ( Linux, Apache, MySql, PHP), venant radicalement simplifier et démocratiser le développement d’applications. Surgit alors une génération quasi-spontanée de développeurs, services et applications.
Cette irruption du développement web venait rebattre les cartes d’une période qui avait démarré elle aussi 30 ans plus tôt, au milieu des années 1960, moment clé qui a vu le développement de tous les outils du génie logiciel classique, des systèmes d’exploitation moderne comme l’OS 360 d’IBM, les systèmes en temps partagé, les langages évolués comme PL/1 et leurs compilateurs, et les premières bases de données industrielles, et même la virtualisation, à la base du cloud contemporain.
Nous observons donc un écart de 30 ans entre les trois dernières révolutions dans la pratique des systèmes d’information.
Et que se passait-il encore 30 ans plus tôt, au milieu des années 1930 ? Tout simplement les travaux de Turing, de Church, de Gödel. La définition de la machine de Turing, la calculabilité, las travaux sur les fonctions récursives et la décidabilité ! Et John Von Neumann les côtoie à Princeton.
N.B. Une question souvent posée est celle de l’œuf et de la poule: Etes-vous parti à priori de l’idée et du chiffre des 30 ans, puis avez-vous cherché des faits pour le justifier plus ou moins sincèrement, ou bien l’inverse ? Voilà la réalité: 1) je suis comme tout le monde estomaqué par les bouleversements en cours sur le développement des applications avec les LLM. 2) je me demande quand a déjà eu lieu un tel bouleversement, et pour moi c’est le milieu des années 1990 avec le développement des applications sur le Web, je l’ai vécu à la tête de ma boîte de l’époque 3) et ce changement venait en contraste avec le « génie logiciel » établi depuis le milieu des années 1960, dans lequel j’ai été immergé en 1967 à mon entrée à l’Ensimag 4) Et enfin, ce que l’on m’enseignait alors comme fondements de l’informatique là-bas, c’étaient des choses qui dataient du milieu des années 1930: la machine de Turing, les théorèmes de non décidabilité, les fonctions récursives calculables, Gödel, Church. J’ai écrit en TD des programmes pour la machine de Turing. Donc j’ai vécu directement ou indirectement ces quatre « moments » séparés par chacun par trois décades. J’ai conclu aux 30 ans, je ne les ai pas pris comme point de départ.
Continuons notre rétropropagation (!), et nous voilà au milieu des années 1900
C’est le moment où les mathématiciens veulent axiomatiser, formaliser à fond les mathématiques, en mettant au point un langage logique sur lequel on pourrait faire des déductions automatiques, une étape fondamentale vers l’ordinateur. Le grand nom de l’époque est Bertrand Russel, avec en 1903 « The Principles of Mathematics » et en 1905 : « De la Dénotation »
Franchissons la barrière du siècle : au milieu de années 1870, Cantor propose la Théorie des Ensembles, avec en particulier la démonstration que l’ensemble des réels n’est pas dénombrable
Et terminons –pour l’instant- en beauté en notant que c’est au milieu des années 1840 que Ada Lovelace écrit ce qui est reconnu comme le premier programme informatique, pour la machine de Babbage, encore sur le papier à l’époque.
Nous voilà donc en présence de sept dates, de sept moments clés, espacés assez régulièrement de 30 ans.
Donc:
Milieu des Années 2020 : Generative AI engineering
Milieu de Années 1990 : Web Engineering
Milieu des Années 1960 : Software Engineering
Milieu des Années 1930 : Calculabilité
Milieu des Années 1900 : Logicisation des mathématiques
Milieu des Années 1870 : Théorie des Ensembles
Milieu des Années 1840 : Ada Lovelace écrit le premier programme « informatique »
Intéressant ! Que faut-il en penser ? Juste le fruit de nos désirs et de notre arbitraire , ou réalité profonde ?
Mais nous allons aller plus loin, avec une autre conjecture : c’est que, entrelacé quasi parfaitement avec ce cycle de 30 ans concernant le logiciel, il existe un cycle du matériel, décalé de 15 ans.
2010: premier usage intensif des GPU pour traiter les masses de données/ big data / images
1980: apparition des premiers microprocesseurs assez puissants pour concurrencer les ordinateurs classiques
1950: premières machines de Von Neumann disponibles
1920: démarrage de la mécanographie , machine Enigma
1890: machine de Hollerith utilisée pour le recensement aux USA
1860: arithmomètre, régles à calcul et autres outils au service de l’industrie
1830: énoncé de la machine de Babbage …
Nous voici en présence de 14 dates qui semblent dessiner une cohérence, pour couvrir ainsi presque deux siècles. Et en rassemblant ces deux éphémérides, on obtient le bel entrelacement suivant, démarrant ici en 1935

De nombreuses questions se posent à nous maintenant, après cet énoncé d’une hypothétique « Loi des 30 ans »
— Le tourbillon actuel en IA va-t-il pulvériser cette belle régularité ? Mettre fin à deux siècles de “progrès” ?
— Pourquoi 30 ans ? On pense trop vite à “c’est une génération”. On pourrait dire aussi “c’est la durée moyenne pendant laquelle un chercheur ou ingénieur de haut niveau exerce son influence sur son milieu: de l’âge de 30 à 40 ans jusqu’à l’âge de 60 ou 70 ans”
— Pourquoi 15 ans de décalage entre les deux cycles ? Là, c’est plus comprehensible, une fois les 30 ans admis. Chacun fait la courte-échelle à l’autre; il faut que l’un soit stabilisé pour porter l’autre; on n’innove pas sur deux choses à la fois; sorte de configuration optimale. Penser aux « pas de deux » dans un ballet: il faut une certaine synchronisation, symétrie, proximité.
— Quelle relation avec les théories des cycles économiques ?
— Quelle est la définition exacte des “moments” qui ont retenu notre attention? Non pas une invention précise, mais une nouvelle manière de voir et faire les choses, qui s’impose à tous, et concentre les efforts intellectuels et les investissements ? Le moment où un nouveau paradigme s’installe et prend la place du précédent, plutôt que le premier indice d’apparition: ainsi le Intel 8086 qui commence à remplacer les « ordinateurs » à base de composants discrets plutôt que le Intel 4004.
— Comment analyser finement la dialectique entre les deux cycles, leurs influences mutuelles ?
— Que représente exactement notre axe des X sur le dessin ?
— Et si l’on remonte plus loin dans le temps: machines de Leibniz et Pascal, machine d’Anticythère, astrolabes, horloges, abaques, (les courbes du temple de Didyme), caisses enregistreuses, et bien d’autres ; théorie des “arts de la mémoire” de Cicéron à la Renaissance, Encyclopédie …
— Et que va-t-il donc se passer en 2040 puis en 2055 ?
Nous espérons que ce “début de théorie” amènera beaucoup d’échanges, compléments et controverses.