Face à l’intelligence artificielle, la permanence de l’encre symbolise la stabilité du savoir face au calcul éphémère du numérique. Cet article retrace la genèse de l’IA, de ses origines philosophiques à la bulle spéculative actuelle, en passant par les biais culturels des modèles de langage. Il interroge notre rapport à la connaissance à l’ère des algorithmes et plaide pour un discernement renouvelé.
Par Christophe Baranger*
En 2012, lors d’un festival littéraire, le romancier américain Jonathan Franzen confiait son attachement à une technologie qu’il jugeait supérieure : le livre de poche. « Je peux renverser de l’eau dessus, il fonctionnera encore ! C’est donc une assez bonne technologie », déclarait-il. Au-delà de la boutade, il articulait une angoisse profonde face à la montée du numérique, incarnée par la liseuse. Pour lui, l’expérience de la lecture sérieuse a toujours été liée à « un sentiment de permanence ». Dans un monde où tout est fluide, le texte imprimé demeure, immuable. « Quelqu’un a travaillé très dur pour que la langue soit juste, exactement comme il la voulait » expliquait-il. « Il en était si sûr qu’il l’a imprimé à l’encre, sur du papier. Un écran donne toujours l’impression que nous pourrions supprimer cela, changer cela, le déplacer. » (Rebecca Greenfield, The Atlantic, 2012).
Cette défense de la permanence de l’encre contre la nature modifiable et éphémère de l’écran est une métaphore puissante pour notre relation actuelle avec l’intelligence artificielle. Nous vivons désormais immergés dans une infrastructure computationnelle globale, une eau algorithmique si omniprésente que nous en oublions la nature. Cette infrastructure, que nous appelons communément IA, prend des décisions, façonne nos cultures et oriente des flux de capitaux à des échelles de temps et de complexité qui nous sont devenues étrangères. Nous nageons dedans, sans toujours nous demander ce qu’est cette eau, ni qui en a creusé le lit. La méfiance de Franzen envers un texte qui peut être rafraîchi à l’infini fait écho à notre propre vertige face à des systèmes qui ne pensent pas, mais calculent, dans un présent perpétuel, sans la mémoire stable et l’intentionnalité figée d’une œuvre imprimée.
La quête de la pensée infaillible : une généalogie de l’abstraction
Il est narrativement commode de faire débuter l’histoire de l’IA avec Alan Turing déchiffrant les codes nazis. Mais ce serait ignorer la véritable genèse : le désir de systématiser la pensée pour la rendre infaillible. Pour cela, il faut remonter bien avant, jusqu’à Euclide et son algorithme qui est l’un de la volonté de développer une pensée autonome du cerveau humain. Le mot algorithme est une déformation latine du nom du mathématicien perse du IXe siècle, Muhammad ibn Musa al-Khwarizmi. Comme le rappelle l’historien des sciences B. Mehri, son œuvre a non seulement donné son nom à la procédure, mais a aussi servi de manuel d’instructions pour une grande partie des mathématiques européennes qui ont suivi, en introduisant notamment les chiffres indiens et les méthodes de résolution systématique des équations (Olympiads in Informatics, 2017).
L’étape suivante fut de modéliser non plus seulement la logique, mais son substrat biologique : le cerveau
En 1943, à l’Université de Chicago, le neuropsychiatre Warren McCulloch et le mathématicien Walter Pitts publièrent un article fondateur qui proposait le premier modèle mathématique d’un neurone (Journal of the History of the Behavioral Sciences, 2002). Leur neurone formel était une abstraction radicale : une unité de calcul binaire qui s’activait si la somme de ses entrées pondérées dépassait un certain seuil. C’était la naissance théorique des réseaux de neurones. Quinze ans plus tard, en 1958, le psychologue Frank Rosenblatt donna corps à cette idée avec le Perceptron, une machine physique capable d’apprendre à reconnaître des formes simples. Le Perceptron ne se contentait plus de suivre des instructions, il les modifiait avec l’expérience. Pourtant, après une période d’enthousiasme, les promesses extravagantes se heurtèrent à la dure réalité de la complexité computationnelle, inaugurant le premier hiver de l’IA dans les années 1970. Le dégel ne viendra véritablement qu’en 1986, avec la popularisation de l’algorithme de rétropropagation par David Rumelhart, Geoffrey Hinton et Ronald Williams (Nature, 1986). Cette technique, qui permet d’entraîner efficacement des réseaux de neurones à plusieurs couches, existait sous diverses formes depuis les années 1960, mais son potentiel ne fut pleinement réalisé qu’avec l’avènement de deux éléments clés : une puissance de calcul massive et la masse de données fournie par Internet.
Le baptême de Dartmouth et le péché d’optimisme

Le terme même d’« Intelligence Artificielle » a été officiellement inventé dans une proposition pour un atelier d’été de 1956 au Dartmouth College. John McCarthy, l’organisateur principal, y formula une hypothèse d’une confiance à couper le souffle : « chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut en principe être si précisément décrit qu’une machine peut être conçue pour le simuler ». L’atelier, qui réunit une dizaine de pionniers dont Marvin Minsky, Claude Shannon et Nathaniel Rochester, devait durer deux mois et était censé jeter les bases de ce nouveau champ. Ils pensaient pouvoir faire des progrès significatifs sur la créativité, le langage et l’auto-amélioration des machines en un seul été. Cet optimisme initial, bien que spectaculairement erroné dans son calendrier, a défini l’ambition et l’hubris du domaine pour les décennies à venir, oscillant entre des promesses grandioses et des périodes de désillusion profonde, les fameux « hivers de l’IA ».
L’ombre portée de la Silicon Valley : biais et uniformité culturelle
Nous avons donc construit des outils à vocation universelle qui apprenent à parler comme les ingénieurs de la Silicon Valley qui les ont créés. C’est le grand déséquilibre linguistique et culturel de notre temps. Les grands modèles de langage (LLM) dévorent des quantités astronomiques de texte, mais les sources numériques sont très majoritairement composées de textes en anglais, reflétant une vision du monde occidentale, éduquée, industrialisée, riche et démocratique (WEIRD). Une étude de 2024 menée par Yan Tao et ses collègues a révélé, via des simulations de sondages à grande échelle, que les LLM les plus utilisés « exhibent des valeurs culturelles ressemblant aux pays anglophones et protestants européens » (PNAS Nexus, 2024). Ce n’est pas une coïncidence, mais la conséquence mathématique d’un entrainement sur des bases de données monochromes. Une autre étude de 2025 par Zhipeng Liu et al. confirme que ce biais culturel provient d’un enchevêtrement de facteurs, incluant des données d’entraînement historiquement biaisées et des choix de conception qui renforcent ces asymétries (Journal of Technical Communication, 2025).
Pire, ce phénomène ne se limite pas aux valeurs. Des recherches sur les modèles multilingues montrent qu’ils ont souvent un « accent anglais » : ils ne pensent pas nativement en français ou en arabe, mais traduisent leur « pensée » depuis une structure conceptuelle et syntaxique anglo-saxonne. Comme le souligne une enquête de 2025 sur les biais sociaux dans les modèles de langage multilingues, ces derniers reproduisent et amplifient les biais présents dans les corpus majoritairement anglais, au lieu de les atténuer (arXiv, 2025). L’IA, conçue comme un pont polyglotte, agit en réalité comme un puissant agent d’uniformisation culturelle. Pour des continents comme l’Afrique, le problème est structurel. Sabelo Mhlambi, chercheur au Berkman Klein Center for Internet & Society de Harvard et figure du mouvement « Decolonize AI », qualifie ce phénomène de « colonialisme algorithmique ». Les décisions sur les problèmes à résoudre, les données à collecter et les ontologies à privilégier sont prises par un groupe restreint d’acteurs, principalement situés dans la Silicon Valley, perpétuant ainsi une concentration de pouvoir économique et épistémique.
Le vertige de la valorisation : L’IA entre innovation et bulle spéculative
L’air que respirent les capital-risqueurs en 2025 sent le silicium avec une subtile note de panique. C’est l’ère où l’acronyme « IA » est un sigle qui justifie des injections de capital si massives qu’elles en deviennent abstraites. Un rapport de Goldman Sachs nous informe que l’écosystème est de plus en plus circulaire : les géants de la tech investissent dans des startups IA qui dépensent ensuite cet argent pour acheter leurs services cloud (Goldman Sachs Research, 2025). Un serpent qui se mord la queue avec une valorisation de plusieurs milliards de dollars. Sommes-nous dans une bulle ? La question est sur toutes les lèvres. Des études académiques récentes tentent de répondre en comparant la situation actuelle à la bulle Internet de la fin des années 1990. Des chercheurs de l’Université de Yale soulignent que 95% des organisations étudiées ont un retour sur investissement nul, malgré des dizaines de milliards dépensés (Yale Insights, 2025).
Ce constat prend une tournure particulière sur les marchés émergents de l’IA, où des entrepreneurs deviennent des maîtres de la narration. Ils ne vendent pas un produit, mais le récit de ce produit. C’est le principe de la pyramide de Ponzi adapté au capitalisme tardif : une startup sans modèle économique viable est maintenue en vie par des levées de fonds successives. Chaque nouvelle levée, à une valorisation plus élevée, donne aux investisseurs précédents l’impression sur papier que leur mise a pris de la valeur. Le but n’est pas de créer une entreprise rentable, mais de maintenir l’illusion de croissance assez longtemps pour la revendre à un acteur plus grand ou l’introduire en bourse. Jannis Bohner et Janet Vertesi notent dans leur étude sur la « socioéconomie du hype » que les acteurs de cet écosystème (entrepreneurs, investisseurs, journalistes) participent collectivement à un « travail de frontières symboliques » pour maintenir la distinction entre l’innovation légitime et la pure spéculation, une frontière qui devient de plus en plus floue (arXiv, 2025). Ils ne vendent pas un produit, ils vendent une valorisation future. Ils vendent le prochain tour de table.
Vers une IA frugale et spécialisée ?
Que faisons-nous, au juste, avec cette IA ? La question s’apparente à une quête de sens dans un territoire inconnu. Notre destination, c’est l’avenir de l’IA. Dans dix ans, pour l’individu, l’IA sera une prothèse cognitive banale. Le coût d’inférence (le coût de l’exécution d’une requête sur un modèle entraîné) a chuté de manière vertigineuse. Pour l’entreprise, c’est une course à la survie. Une enquête de McKinsey révèle une fracture : d’un côté, la masse qui expérimente ; de l’autre, une élite qui redessine fondamentalement ses processus et investit massivement dans l’IA.
Le schisme architectural : dieux contre insectes

L’avenir de l’IA se joue en grande partie dans un débat architectural qui oppose deux philosophies. D’un côté, l’école du « scaling », qui postule que la taille est la clé. Elle produit des modèles gigantesques (LLM) comme GPT-4.1 ou Gemini 2.5, des « dieux » omniscients entraînés sur des pans entiers d’Internet, extrêmement coûteux à développer et à opérer, tant sur le plan financier qu’énergétique. De l’autre, une philosophie de l’efficacité et de la spécialisation. Des architectures comme les modèles hybrides (mélangeant des approches comme Transformer et Mamba) ou les Small Language Models (SLM) prouvent qu’on peut être petit et redoutablement performant sur des tâches ciblées. Cette seconde approche explore des voies alternatives pour atteindre une forme de raisonnement plus profond sans augmenter exponentiellement le nombre de paramètres. C’est le cas des modèles qui utilisent le « test-time compute », où le modèle dispose de plus de temps de calcul au moment de l’inférence pour affiner sa réponse, simulant une forme de réflexion. L’avenir pourrait ne pas appartenir à un seul type de modèle, mais à un écosystème hybride où un LLM généraliste orchestrerait une armée d’« insectes » IA, des agents spécialisés effectuant 99% des tâches avec une précision et une efficacité redoutables.
Mais à quoi ressemblera l’IA elle-même ? Alors que la course semble dominée par une philosophie du « toujours plus gros », une contre-culture émerge, axée sur l’efficacité et la spécialisation. Ce sont les « Small Language Models » (SLM), des modèles plus petits, moins coûteux, mais redoutablement efficaces pour des tâches spécifiques. Une étude de 2025 souligne que ces SLM sont l’avenir des systèmes d’agents autonomes, grâce à leur faible latence et leurs coûts opérationnels réduits. Une autre voie fascinante est explorée par des architectures récursives. Des chercheurs ont montré que de très petits modèles peuvent atteindre des performances surprenantes sur des tâches de raisonnement complexes en s’auto-corrigeant en boucle, une forme de « test-time compute » où le modèle « réfléchit » plus longtemps au moment de la requête, plutôt que de s’appuyer uniquement sur les connaissances figées lors de son entraînement massif. L’avenir n’est peut-être pas un panthéon de quelques dieux-modèles omniscients, mais une biosphère foisonnante de milliards d’agents spécialisés et agiles.
Entre permanence et fluidité : Repenser notre rapport au savoir
La tension entre la permanence de l’imprimé et la fluidité du numérique que Franzen articulait en 2012 n’est pas qu’une question de support. Elle révèle une anxiété plus profonde sur la nature même du savoir et de l’autorité intellectuelle. Quand un texte peut être modifié à l’infini, quand une IA peut générer des milliers de variations d’un même argument, quand les sources se multiplient et se contredisent dans un flux incessant, où se situe la vérité ? Cette question n’est pas nouvelle. Les philosophes des Lumières se la posaient déjà face à la multiplication des livres imprimés. Mais l’IA ajoute une dimension inédite : celle d’un auteur sans intention, d’un texte sans origine stable.
Cette situation nous oblige à repenser nos critères de validation du savoir. Comme le soulignent les chercheurs en éthique de l’IA, nous devons développer une « littératie critique de l’IA » (AI & Society, 2025), une capacité à interroger non seulement les résultats produits par ces systèmes, mais aussi leurs conditions de production, leurs biais structurels et leurs angles morts. Il ne s’agit pas de rejeter l’IA, mais de la situer dans un écosystème informationnel plus large, où la permanence de l’imprimé et la fluidité du numérique coexistent, chacune avec ses forces et ses limites. La vraie question n’est pas de savoir si nous préférons le papier ou l’écran, mais comment nous cultivons notre capacité de discernement dans un monde où les deux cohabitent.
Encadré 2 : Le schisme architectural : dieux contre insectes
L’avenir de l’IA se joue en grande partie dans un débat architectural qui oppose deux philosophies. D’un côté, l’école du « scaling », qui postule que la taille est la clé. Elle produit des modèles gigantesques (LLM) comme GPT-4.1 ou Gemini 2.5, des « dieux » omniscients entraînés sur des pans entiers d’Internet, extrêmement coûteux à développer et à opérer, tant sur le plan financier qu’énergétique. De l’autre, une philosophie de l’efficacité et de la spécialisation. Des architectures comme les modèles hybrides (mélangeant des approches comme Transformer et Mamba) ou les Small Language Models (SLM) prouvent qu’on peut être petit et redoutablement performant sur des tâches ciblées. Cette seconde approche explore des voies alternatives pour atteindre une forme de raisonnement plus profond sans augmenter exponentiellement le nombre de paramètres. C’est le cas des modèles qui utilisent le « test-time compute », où le modèle dispose de plus de temps de calcul au moment de l’inférence pour affiner sa réponse, simulant une forme de réflexion. L’avenir pourrait ne pas appartenir à un seul type de modèle, mais à un écosystème hybride où un LLM généraliste orchestrerait une armée d’« insectes » IA, des agents spécialisés effectuant 99% des tâches avec une précision et une efficacité redoutables.

*Christophe Baranger est co-fondateur et CEO de BRAYN AI et auteur aux Éditions LE PANSEUR. Il transforme la dépendance technique en autonomie stratégique, l’urgence en réflexion, loin de la fascination technologique





