GalaadBlogSémantique

Pourquoi j'ai arrêté de dire « intelligence artificielle »

TL;DR , Le terme « intelligence artificielle » est une imprécision sémantique qui nous trompe sur ce qu'est réellement une machine. Un LLM prédit des tokens, il n'invente pas. Préférer des mots justes comme « assistant d'écriture » ou « prédicteur statistique » change la relation qu'on entretient avec ces outils.

Pourquoi le mot « intelligence artificielle » nous trompe

L'expression est trop grande pour la chose. Un LLM ne pense pas. Il cherche, dans le tissu probabiliste qu'on lui a montré, le token le plus vraisemblable à l'instant t. Puis il répète.

C'est pour ça qu'en 1956, quand John McCarthy a inventé le terme à la conférence de Dartmouth, il voulait dire quelque chose de plus ambitieux : créer des machines qui raisonnent comme les humains. Cette promesse a échoué à trois reprises. L'informatique des années 60-70 n'avait pas la puissance. Les années 80, les systèmes experts, ont montré les limites de la logique pure. Et puis longtemps. Très longtemps. On s'est trompé de route.

Jusqu'à 2016, quand AlphaGo a battu Lee Sedol en apprenant par la statistique, pas par la règle.

Qu'est-ce qu'un LLM, vraiment

Un LLM n'est pas intelligent. C'est un prédicteur.

Vous entrez une phrase. Le modèle scrute les motifs qu'il a vus pendant son entraînement. Des milliards de tokens, de contextes, de patterns. Et dit : « Le prochain mot le plus probable, c'est celui-ci. » Puis on continue. Token après token. C'est de la prédiction statistique, pas de l'invention.

Ça paraît banal écrit ainsi. Et pourtant : c'est suffisant. Suffisant pour répondre à une question complexe. Suffisant pour écrire un article. Suffisant pour refactoriser du code. Pas parce que la machine invente. Elle reproduit les patterns de ce qu'elle a vu. Mais ce qu'elle a vu, ce sont des milliards de pages de ce que l'humanité a écrit de mieux.

Le danger, c'est l'éblouissement. Quand un LLM génère quelque chose qui ressemble à de l'intelligence, on peut croire qu'il y a de l'intelligence derrière. C'est une illusion d'optique sémantique.

La langue nous a trompés, et elle nous trompe encore

Le mot « intelligence » vient du latin intelligere : « comprendre, discerner ». Il porte en lui une intentionnalité, un jugement, une capacité à vraiment saisir le sens des choses. Un être intelligent réfléchit. Il hésite. Il doute.

Un LLM ne doute jamais. Il fournit toujours une réponse. Avec aplomb.

Quant à « artificiel », c'est pire. Ça suppose qu'on a créé une version factice d'une chose réelle. Comme si on avait peint une fausse intelligence sur la façade d'une machine. Mais ce qu'on a vraiment créé, c'est un nouvel outil. Un outil qui produit du texte mieux qu'avant.

Les chercheurs le savent. Yann LeCun, Yoshua Bengio et Geoffrey Hinton. Les trois pères du deep learning, prix Turing 2018. Parlent plutôt de « machine learning » ou « deep learning ». Jamais « intelligence artificielle ». C'est plus précis.

Que dire à la place

Le langage commande la pensée. Si on cesse de dire « intelligence artificielle », on cesse progressivement de confondre la machine avec ce qu'elle n'est pas.

Un assistant d'écriture. Ça dit : « Je suis là pour augmenter votre capacité à rédiger. » Pas pour remplacer votre pensée. Pour la servir.

Une machine statistique. Ça place l'outil à la bonne distance. Pas magique. Pas vivant. Une machine qui calcule.

Un prédicteur de contexte. Claude prédit le token suivant dans votre conversation. C'est ça qui se passe, techniquement.

Un orchestrateur multi-agents. Quand vous dirigez plusieurs LLM ensemble. Un qui cherche, un qui valide, un qui rédige. Vous avez un système. Pas une intelligence. Un système.

Pourquoi ça change tout

Parce que nos mots font nos gestes. Si vous croyez avoir une véritable « intelligence » à votre service, vous la traitez comme une personne. Vous lui faites confiance sur des choses qui demandent du jugement, pas de la prédiction.

Ça produit des catastrophes. Vous envoyez une contraction rédigée par Claude à un client sans la relire. Claude a prédit les tokens qui ressemblaient le plus à un email professionnel. Mais il n'a pas compris les nuances légales. Catastrophe.

En revanche, si vous savez que vous avez un excellent outil de brouillon. Une machine qui prédit bien, qui formule bien, mais qui ne comprend jamais vraiment. Vous le relisez. Vous l'interrogez. Vous le mettez au service de votre jugement, pas l'inverse.

C'est la différence entre servitude et partenariat.

En prenant du recul

Il y a soixante-dix ans, à Dartmouth, on rêvait d'une vraie intelligence. On a échoué beautifully, une dizaine de fois. Et puis on a arrêté de rêver. On a commencé à calculer.

Les calculs, ça marche. Pas parce qu'on a créé de l'intelligence. Parce qu'on a appris à faire des machines qui devinent très bien.

L'honnêteté sémantique, c'est un acte politique : c'est accepter que ce qu'on a créé n'est pas magique, mais c'est suffisant. Et c'est déjà énorme.

Chez Galaad, quand on parle d'IA, on parle d'outils. Des assistants. Des augmenteurs. Des prédicteurs. Des choses qui vous rendent le temps, l'autonomie, et l'envie d'inventer. Mais jamais en vous promettant de penser à votre place.

, Alexandre Ferran

← Retour aux articles Prenons 30 minutes