L’intelligence artificielle vit depuis dix ans sous le règne des LLM. GPT-5, Gemini, Claude : des modèles de plusieurs centaines de milliards de paramètres, entraînés sur des océans de données, capables de rédiger un roman ou de coder une application en quelques secondes.
Pourtant, une chercheuse canadienne vient de démontrer qu’on peut obtenir des performances comparables, voire supérieures, sur des tâches de raisonnement avec un modèle 200 fois plus petit et 200 fois plus économe. Chez Yiaho, nous suivons attentivement ces avancées et sommes toujours prêts à innover. Aujourd’hui, nous allons vous expliquer l’univers des Tiny Recursive Models, ou TRM !
Qu’est-ce qu’un Tiny Recursive Model ?
Un TRM est un réseau de neurones artificiels extrêmement compact, entre 1 et 10 millions de paramètres seulement, conçu spécifiquement pour le raisonnement structuré. Contrairement aux LLM (Large Language Models) qui apprennent à prédire le mot suivant dans une phrase, les TRM apprennent à résoudre des problèmes étape par étape, comme un humain qui résout une équation ou une énigme logique.
Le secret ? Quatre piliers techniques :
- Pas de préentraînement massif : fini les téraoctets de texte scrapé sur Internet. Le modèle est entraîné sur un jeu de données ciblé et synthétique, souvent généré par le modèle lui-même.
- Deep supervision : chaque couche du réseau reçoit un signal d’apprentissage direct, pas seulement la sortie finale. Cela force le modèle à apprendre des représentations utiles à tous les niveaux.
- Deep recursion : le réseau s’appelle lui-même de manière itérative, comme une fonction qui se rappelle jusqu’à convergence.
- Data augmentation récursive : à chaque itération, le modèle génère de nouveaux exemples à partir de ses propres erreurs, enrichissant son propre corpus d’entraînement.
Résultat : un modèle qui ne mémorise pas, mais qui raisonne vraiment. Par exemple, le TinyReasoner-7M, avec seulement 7 millions de paramètres, excelle sur des puzzles complexes comme Sudoku, les labyrinthes ou l’évaluation ARC-AGI, des benchmarks où même les géants comme Gemini 2.5 Pro peinent.
Le backtrack : la grande différence avec les LLM
Imaginez que vous jouez aux échecs. Un LLM joue coup par coup, sans jamais revenir en arrière. S’il commet une erreur au 5e coup, toute la partie est perdue. Un TRM, lui, peut dire : « Ce chemin mène à l’échec. Je recule de trois coups et j’essaie autre chose. »
C’est le backtrack récursif. Le modèle :
- Génère une séquence de raisonnement partielle.
- L’évalue avec une fonction de score interne (par exemple : « Est-ce que cette étape respecte les règles logiques ? »).
- Si le score est trop bas, il revient en arrière, modifie une étape précédente, et repart.
- Il répète jusqu’à obtenir une solution valide.
Conséquence majeure : le TRM ne génère pas sa réponse token par token. Il travaille en interne, affine, corrige, optimise… puis livre une réponse complète, cohérente et finale d’un seul bloc. C’est comme un mathématicien qui remplit des pages de brouillon avant de vous montrer la démonstration finale, sans rature.
C’est une approche qui réduit drastiquement les « hallucinations« , ces erreurs absurdes que les LLM commettent souvent, et permet une précision bien supérieure sur des tâches qui demandent de la logique pure.
Le papier qui a fait trembler les marchés
Tout commence le 6 octobre 2025 avec la publication de « Less is More : Recursive Reasoning with Tiny Networks », par Alexia Jolicoeur-Martineau, chercheuse principale au Samsung SAIT AI Lab de Montréal. (Papier disponible dans les sources en bas de page).
Dans ce document, elle présente le Tiny Recursive Model (TRM), inspiré du Hierarchical Reasoning Model (HRM), mais simplifié à l’extrême. Le TRM de 7 millions de paramètres :
- Atteint 45 % sur ARC-AGI-1 et 8 % sur ARC-AGI-2, surpassant des modèles comme DeepSeek-R1 ou Gemini 2.5 Pro.
- Bat les LLM sur des tâches comme Sudoku, les labyrinthes et le raisonnement abstrait, avec seulement 1000 exemples d’entraînement.
- Tourne sur un seul GPU RTX 4090 en inférence, et s’entraîne en quelques heures.
- Consomme 0,5 watt-heure par inférence, contre 100+ pour un LLM équivalent.
Deux jours après la publication, l’action Samsung bondit de 10,3 % à la Bourse de Séoul ! Les analystes parlent déjà d’edge AI révolutionnaire : un modèle capable de raisonner comme un humain, mais qui tient dans une montre ou un capteur industriel. Le buzz s’est propagé sur Reddit et Medium, où les communautés d’IA open-source s’enthousiasment pour cette preuve que « less is more ». En bon français, on peut dire que la simplicité peut souvent être plus efficace que la complexité !
Pourquoi les TRM peuvent tout changer ?
1. Ils fonctionnent sans cloud
Pas besoin d’envoyer vos données à un serveur distant. Le modèle tourne localement, sur votre téléphone, votre voiture, votre frigo. Confidentialité garantie, et latence quasi nulle.
2. Ils sont économes en énergie
Un TRM consomme l’équivalent d’une ampoule LED. Un LLM ? L’équivalent d’un petit immeuble. Dans un monde où l’IA représente déjà 3 % de la consommation électrique mondiale, c’est crucial pour un déploiement massif.
3. Ils sont fiables par conception
Grâce au backtrack, le modèle n’hallucine presque jamais sur des tâches structurées. Il vérifie, corrige, valide. Idéal pour la médecine (diagnostic logique), la finance (vérification de calculs), la sécurité (planification de routes) ou même les jeux vidéo.
4. Ils coûtent presque rien à entraîner
Quelques milliers de dollars et un week-end suffisent. N’importe quel labo, startup ou étudiant peut en créer un. Le code est déjà open-source sur GitHub, sous le repo SamsungSAILMontreal/TinyRecursiveModels, avec une implémentation PyTorch prête à l’emploi !
En comparaison, entraîner un LLM comme GPT-3 coûte des millions et nécessite des fermes de GPU. Les TRM démocratisent l’IA de raisonnement, rendant accessible ce qui était réservé aux géants tech.
Les TRM : L’avenir de l’IA?
Les TRM ne savent pas écrire de poèmes, tenir une conversation fluide ou générer des images créatives. Leur domaine ? Le raisonnement pur : maths, logique, planification, diagnostic, jeux, vérification de code. Ils brillent là où les LLM trébuchent, comme sur les puzzles abstraits d’ARC-AGI, qui testent une intelligence générale sans biais de données massives.
Mais l’avenir est prometteur :
- Hybrides TRM + LLM : le TRM fait le raisonnement lourd, le LLM rédige la réponse en langage naturel pour une interaction plus humaine.
- Intégration dans les Galaxy S26 : Samsung prépare déjà des assistants embarqués basés sur TRM pour une IA locale et économe.
- Open-source en pleine expansion : le code du papier est sur arXiv, et des forks GitHub pullulent. Des tutoriels pour entraîner votre propre TRM en 3 heures émergent déjà sur Medium.
Avec le récent engouement, des discussions enflammées sur X aux analyses sur Hugging Face, les TRM pourraient bien marquer le tournant vers une IA plus efficace et accessible.
En résumé : moins, c’est vraiment plus !
Les Tiny Recursive Models ne sont pas une mode passagère. Ils sont la preuve qu’en IA, la taille n’est pas la solution à tout. Avec quelques millions de paramètres, une bonne architecture et beaucoup d’ingéniosité, on peut résoudre des problèmes complexes de façon fiable, rapide et économe.
Alexia Jolicoeur-Martineau l’a démontré : la récursion et le backtrack transforment des « petits » modèles en champions du raisonnement. Les TRM, c’est l’IA qui réfléchit avant de parler. Ce qui nous rappelle une leçon oubliée : parfois, l’intelligence naît de la contrainte.
Source : Arxiv / Less is More: Recursive Reasoning with Tiny Networks

