Nous utilisons des cookies pour générer des statistiques et améliorer votre expérience sur ce site web. Vous pouvez autoriser l'utilisation de ces cookies en cliquant sur "Accepter tout" ou les refuser en cliquant sur "Refuser tout". Vous pouvez modifier vos paramètres en matière de cookies en cliquant sur "Paramètres".

A l'intérieur de la machine à faire du battage médiatique

Un point de vue d'initié sur la fabrication de la saucisse.

Rédigé par
Alaa
2 juin 2025
AIHallucinations
L'IA générative

Ouverture

 

L'IA générative fait l'objet d'un véritable engouement, les spécialistes du marketing vantant les mérites des grands modèles de langage (LLM) en tant que "moteurs de raisonnement" et "machines à penser". Mais en réalité ? Ces modèles sont anthropomorphisés, c'est-à-dire qu'ils sont commercialisés de manière à ressembler à la pensée humaine et à devenir compréhensibles. Dans cet article, nous démystifions certains termes qui sont devenus courants dans les discussions centrées sur les LLM.

Le raisonnement par l'élan

Les TPG ne "raisonnent" pas - ils génèrent. Un mot à la fois. Chaque sortie crée une trace qui alimente la suivante. Le résultat est une sorte d'élan linguistique : une trace de texte donne naissance à une autre trace, et encore une autre. De loin, cela ressemble à du raisonnement. Mais de près, c'est du langage qui prédit du langage. En réalité, nous devons encore définir et modéliser ce qu'implique un "vrai" raisonnement dans les éléments constitutifs de la technologie générative.

Les chercheurs ont même étendu cette illusion en invitant le modèle à prononcer des phrases telles que "attendez..." juste avant qu'il ne s'arrête. Cette petite hésitation incite le modèle à poursuivre sa "pensée", ce qui prolonge la trace un peu plus longtemps. Non pas parce qu'il a "repensé", mais parce que l'incitation l'a poussé à revenir sur les rails de la génération.

Cela dit, il faut rendre à César ce qui appartient à César. Ces approches ont permis d'améliorer les performances sur de nombreux points de référence - bien qu'avec une consommation d'énergie accrue - et constituent des résultats d'une valeur indéniable.

Hallucinations : Une caractéristique, pas un échec

Lorsqu'un modèle invente quelque chose en toute confiance, il ne ment pas, il échantillonne. Il n'y a pas de vérificateur de faits interne, seulement des continuations plausibles de séquences de mots soutenues par des probabilités. Le fait d'appeler cela une "hallucination" donne l'impression que c'est accidentel, mais ce n'est pas le cas. C'est un résultat attendu, intégré dans la méthodologie inhérente à la construction de ces modèles.

La détection et l'atténuation des "hallucinations" constituent un domaine de recherche actif, avec d'importants efforts en cours pour améliorer la fiabilité des modèles et la base factuelle.

Plus près : S'éloigner des théories de "AGI" et Cie.

Les spécialistes du marketing adorent coller des étiquettes mal définies (pensez à l'intelligence artificielle générale) sur ces outils, mais ces termes étirent ce que les modèles font réellement. Les LLM sont des algorithmes sophistiqués qui compressent d'énormes quantités de données Internet ; ce sont des générateurs de texte basés sur des données. Mythologiser ces systèmes ne peut que conduire à une mauvaise utilisation et à une perte de confiance de la part des utilisateurs.  

La magie opère lorsque nous cessons d'adhérer à des tactiques de vente exagérées et que nous commençons à comprendre - et à concevoir - les utilités explicites que ces modèles peuvent offrir.