Le dictionnaire de l'intelligence artificielle
Vous voulez tout apprendre sur l’intelligence artificielle ?
Que vous soyez débutant, expert ou simplement curieux, notre dictionnaire sur l’IA est régulièrement mis à jour pour vous aider à comprendre ce domaine. Cliquez sur le mot pour lire la définition complète.
Agentic AI (IA agentique) : Une IA agentique est un système d’intelligence artificielle capable d’agir de manière autonome, de prendre des décisions et d’exécuter des tâches complexes dans un environnement donné, souvent avec un objectif spécifique, en s’adaptant dynamiquement aux changements sans intervention humaine constante.
AI Slop : Contenu de très faible qualité, généré massivement par des modèles d’IA (surtout les versions les moins chères ou mal promptées), souvent bourré de clichés, d’erreurs factuelles, d’artefacts visuels, de formulations creuses et d’un manque total d’âme ou d’intention réelle.
Alan Turing : Mathématicien et cryptanalyste britannique, Alan Turing est considéré comme le père de l’informatique moderne. Ses travaux ont ouvert la voie à l’intelligence artificielle.
Algorithme : Un algorithme est une série d’instructions étape par étape conçues pour résoudre un problème ou accomplir une tâche. Il est essentiel en informatique pour le traitement de données et l’exécution de fonctions.
Anthropic : Entreprise fondée en 2021 par d’anciens chercheurs d’OpenAI, Anthropic développe des modèles d’intelligence artificielle, comme Claude, en mettant l’accent sur la sécurité et l’éthique via une approche dite « IA constitutionnelle ». Malgré des innovations prometteuses et un soutien financier massif (Amazon, Google), elle fait face à des controverses, notamment sur les droits d’auteur et les applications militaires.
Apertus : Grand modèle de langage open source développé en Suisse par l’EPFL, l’ETH Zurich et le CSCS. Conçu pour le bien commun, il se distingue par son multilinguisme, sa transparence et sa conformité réglementaire, offrant une alternative éthique et sécurisée pour des applications locales.
API (Interface de Programmation d’Application) : Une API permet à deux systèmes informatiques de communiquer entre eux. Dans le contexte de l’intelligence artificielle, les API donnent accès à des modèles puissants comme ceux de ChatGPT par exemple.
Apprentissage auto-supervisé (self-supervised learning) : Méthode d’apprentissage automatique où un modèle apprend des représentations à partir de données brutes sans annotations explicites, en générant ses propres tâches de prédiction, comme deviner des mots masqués dans un texte ou associer des versions modifiées d’une image.
Apprentissage supervisé (supervised learning) : L’apprentissage supervisé est une méthode d’apprentissage automatique où un modèle est entraîné sur un ensemble de données étiquetées, c’est-à-dire des données pour lesquelles les résultats souhaités sont connus. L’objectif est d’apprendre à prédire les résultats à partir de nouvelles données en s’appuyant sur les relations identifiées lors de l’entraînement.
AutoML (apprentissage automatique automatisé) : Processus qui simplifie la création de modèles d’intelligence artificielle en automatisant des étapes telles que la sélection des algorithmes, le prétraitement des données et l’optimisation des hyperparamètres, permettant ainsi aux utilisateurs, même sans expertise technique, de développer des modèles performants.
Backbone : Partie principale d’un modèle d’intelligence artificielle, généralement un grand réseau de neurones pré-entraîné (comme ResNet, ViT, BERT, Llama, etc.), qui extrait les caractéristiques de base des données brutes (images, texte, audio…) et sert de fondation réutilisable pour des tâches spécialisées downstream via fine-tuning ou adaptation.
Biais Algorithmiques en IA : Ce qu’on appelle un biais algorithmique en intelligence artificielle est une erreur où un système d’intelligence artificielle produit des résultats injustes ou discriminatoires, souvent en reproduisant les préjugés présents dans les données qui l’ont entraîné.
Big Data : Le Big Data désigne l’ensemble des données volumineuses, variées et en constante évolution qui ne peuvent pas être traitées efficacement par des méthodes traditionnelles. Il implique l’utilisation de technologies avancées pour collecter, stocker, analyser et extraire des informations significatives de ces données afin de prendre des décisions éclairées.
Calcul quantique (en IA) : Le calcul quantique en intelligence artificielle pourrait mener à l’IA quantique. Cette technologie utilise les principes de la mécanique quantique pour effectuer des calculs complexes plus rapidement et efficacement que les ordinateurs traditionnels, ouvrant ainsi de nouvelles perspectives pour le développement d’algorithmes avancés.
Chatbot : Un chatbot est un programme informatique qui simule une conversation humaine, utilisant l’IA pour comprendre et répondre aux interactions. ChatGPT est un exemple avancé de chatbot, capable de générer du texte complexe et de converser de manière fluide.
Computer Vision : La « vision par ordinateur » est un domaine de l’IA qui permet aux ordinateurs d’extraire des informations significatives à partir d’images et de vidéos. L’objectif est de rendre les machines capables de comprendre et d’agir sur le monde visuel.
DALL-E : Un modèle d’IA développé par OpenAI qui génère des images à partir de descriptions textuelles, combinant des concepts issus du nom « DALL·E » (un jeu sur Salvador Dalí et le personnage WALL-E de Pixar) et des techniques avancées d’apprentissage automatique.
Data Augmentation : L’augmentation de données est une technique qui consiste à enrichir un dataset en générant de nouvelles données à partir des données existantes via des transformations (rotations, substitutions, ajout de bruit, etc.), afin d’améliorer la performance et la robustesse des modèles d’IA.
Dataset : Ensemble organisé de données, comme des textes, images, vidéos ou chiffres, utilisé pour entraîner, valider ou tester des modèles d’intelligence artificielle dans des tâches comme la reconnaissance d’images ou le traitement du langage. Sa qualité, sa diversité et son étiquetage précis sont essentiels pour permettre aux algorithmes d’apprendre efficacement et de généraliser leurs prédictions à de nouvelles situations.
Deep Learning : Le Deep Learning est une branche du Machine Learning qui utilise des réseaux de neurones artificiels à plusieurs couches pour modéliser des représentations complexes des données. Il est particulièrement efficace pour traiter des tâches telles que la reconnaissance d’images, le traitement du langage naturel et d’autres applications nécessitant une compréhension approfondie des données.
Edge AI : L’Edge AI (ou IA en périphérie) désigne l’intelligence artificielle déployée directement sur des appareils locaux, comme des smartphones, voitures ou capteurs, pour traiter les données en temps réel sans dépendre du cloud. Cela améliore la vitesse, la confidentialité et l’efficacité énergétique.
Embedding : Un embedding est une représentation numérique d’une donnée (comme un mot, une image ou un utilisateur) sous forme de vecteur, permettant à une intelligence artificielle de l’analyser et de la comparer efficacement.
Éthique en IA : L’éthique en intelligence artificielle regroupe les questionnements et principes visant à garantir que les systèmes d’IA soient développés et utilisés de manière responsable, transparente et respectueuse des droits humains. Ce domaine aborde des enjeux comme les biais, la vie privée, la sécurité et l’impact sociétal de l’IA.
Explainable AI : « L’IA explicable » désigne un ensemble de techniques et d’approches en intelligence artificielle visant à rendre les décisions et les processus de raisonnement des modèles d’IA compréhensibles et transparents pour les humains, en expliquant clairement les étapes et les critères qui mènent à une conclusion ou une prédiction.
Feature Engineering : Appelé aussi « Ingénierie des caractéristiques » est le processus de création, transformation et sélection de caractéristiques (variables) à partir de données brutes pour améliorer les performances des modèles d’intelligence artificielle et de machine learning.
Fine-tuning : Le fine-tuning est une technique en IA qui consiste à ajuster un modèle pré-entraîné sur des données spécifiques pour améliorer ses performances sur une tâche ciblée. Cela permet d’optimiser l’efficacité tout en exploitant les connaissances générales du modèle.
Foundation Model (modèle fondation) : Un modèle fondation est un modèle d’intelligence artificielle de grande taille, préentraîné sur d’énormes volumes de données, conçu pour servir de base à de nombreuses tâches différentes comme le traitement du langage, l’analyse d’images ou la génération de contenu.
GAIA Benchmark : GAIA est un benchmark (test de référence) qui évalue l’intelligence artificielle générale à travers 466 questions pratiques, simples pour les humains mais difficiles pour les IA.
GANs : Les « Réseaux Antagonistes Génératifs », ou GANs, sont une architecture d’apprentissage profond où deux réseaux de neurones s’opposent : le générateur crée des données synthétiques, tandis que le discriminateur évalue leur authenticité. Cette compétition améliore la qualité des données générées, et les GANs sont utilisés pour la création d’images, de vidéos, et d’autres contenus synthétiques.
Gemini : Famille de modèles d’intelligence artificielle multimodaux développée par Google, capable de traiter et de générer du texte, des images, des vidéos et d’autres données. Lancée en 2023, elle vise à rivaliser avec les IA de pointe tout en s’intégrant à l’écosystème Google pour des applications variées.
Geoffrey Hinton : Pionnier de l’IA et père du deep learning. Professeur à Toronto, il a reçu le prix Turing 2018 et alerte sur les risques éthiques de l’IA depuis 2023.
GPT : Acronyme apparu en 2018, « Generative Pre-trained Transformer », est un modèle de traitement du langage naturel développé par OpenAI, conçu pour générer du texte cohérent et contextuellement pertinent.
GPU : Un GPU, ou unité de traitement graphique, est un processeur puissant qui excelle dans les calculs simultanés, très utilisé en intelligence artificielle pour booster l’entraînement et l’utilisation des modèles, comme ceux du Deep Learning ou de la vision par ordinateur.
Grand Modèle de Langage (LLM) : C’est un système d’intelligence artificielle génératif, entraîné sur de vastes données textuelles, capable de comprendre et de produire du langage naturel pour des tâches comme la conversation, la traduction ou la génération de texte.
Grok : Mise en ligne en 2023, Grok est une intelligence artificielle développée par Elon Musk avec son entreprise X-AI. Grok est disponible sur la plateforme X (anciennement Twitter).
Hallucination en IA : Une hallucination d’IA est une erreur où un modèle d’intelligence artificielle génère des informations fausses ou inventées, souvent de manière convaincante, en raison d’une mauvaise interprétation des données ou d’un manque de contexte.
IA ACT : L’IA ACT est le règlement européen sur l’intelligence artificielle. C’est une législation proposée par l’Union européenne visant à réguler l’utilisation de l’intelligence artificielle. Son objectif principal est de garantir la sécurité, la transparence et l’éthique des systèmes d’IA tout en favorisant l’innovation.
Ilya Sutskever : Cofondateur d’OpenAI et créateur de Safe Superintelligence Inc., Ilya Sutskever est un pionnier de l’IA connu pour ses percées avec AlexNet et son engagement à développer une superintelligence sûre. Son parcours allie innovation technique et réflexion éthique pour façonner l’avenir de l’intelligence artificielle.
Imitation Learning (Apprentissage par imitation) : Technique d’IA où un modèle apprend à reproduire un comportement en observant des exemples réalisés par un humain ou un expert, plutôt que d’apprendre par essais et erreurs.
Inférence : En IA, c’est le processus par lequel un modèle entraîné utilise ses connaissances pour produire des prédictions ou des sorties sur de nouvelles données. C’est la phase d’application de l’IA.
Intelligence artificielle : L’intelligence artificielle désigne la simulation des processus d’intelligence humaine par des systèmes informatiques, notamment l’apprentissage, le raisonnement et l’auto-correction.
Intelligence artificielle générale (AGI) : L’intelligence artificielle générale (ou Super IA) est un type d’IA capable de comprendre, d’apprendre et d’appliquer des connaissances dans une variété de tâches, de manière similaire à l’intelligence humaine.
Intelligence artificielle générative : L’IA générative est une technologie qui crée du contenu original, comme du texte, des images ou de la musique, en s’inspirant des données sur lesquelles elle a été entraînée.
Intelligence Artificielle Supérieure (ASI) : L’ASI, ou Superintelligence, désigne une IA qui dépasse largement les capacités intellectuelles humaines dans tous les domaines : créativité, résolution de problèmes, prise de décision, etc. Contrairement à l’AGI (Intelligence Artificielle Générale), qui égale l’intelligence humaine, l’ASI serait exponentiellement plus performante, capable de s’auto-améliorer et de résoudre des problèmes complexes à une échelle inimaginable, soulevant des enjeux éthiques et existentiels majeurs.
Judea Pearl : Informaticien israélien-américain né en 1936, père des réseaux bayésiens, créateur du cadre moderne de l’inférence causale, lauréat du prix Turing 2011, auteur de référence en intelligence artificielle et penseur dont les travaux ont transformé la statistique, la médecine, l’économie et la philosophie des sciences.
Llama : Série de modèles d’IA open-source développée par Meta AI depuis 2023. Initiée par FAIR, elle évolue de Llama 1 à Llama 4, soutenant la recherche et l’innovation.
Low-Rank Adaptation (LoRA) : Méthode de fine-tuning qui gèle le modèle pré-entraîné et n’entraîne que de petites matrices de faible rang ajoutées en parallèle, réduisant drastiquement les paramètres (0,1-1 %) tout en conservant des performances proches du fine-tuning complet et une empreinte mémoire minimale.
Machine Learning : Le Machine Learning est une sous-discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et d’améliorer leurs performances sans être explicitement programmés.
Marvin Minsky : Pionnier américain de l’intelligence artificielle, cofondateur du laboratoire IA du MIT, lauréat du Prix Turing 1969. Inventeur du microscope confocal, théoricien des réseaux neuronaux et auteur de The Society of Mind, il a révolutionné notre vision de l’esprit humain en le comparant à une « société » d’agents simples. Visionnaire excentrique et multidisciplinaire, il reste l’un des pères fondateurs de l’IA moderne.
Mécanisme d’attention (Attention Mechanism) : Technique en intelligence artificielle permettant à un modèle de prioriser certaines parties des données d’entrée selon leur pertinence pour une tâche, optimisant la compréhension contextuelle et l’efficacité du traitement.
Mistral AI : Start-up française créée en 2023, qui développe des modèles d’intelligence artificielle, notamment des modèles de langage large (LLM), avec pour objectif qu’ils soient ouverts et éthiques.
Modèle de diffusion (diffusion models) : Les modèles de diffusion sont des algorithmes d’IA générative qui créent des données (comme des images) en modélisant un processus de transformation progressive : ils partent d’un bruit aléatoire et le raffinent étape par étape pour générer une sortie cohérente, en s’appuyant sur des principes probabilistes.
NLP (Traitement du Langage Naturel) : Le Natural Language Processing est une branche de l’intelligence artificielle qui permet aux machines de comprendre, interpréter et générer le langage humain de manière naturelle.
John McCarthy : Considéré comme « le père de l’intelligence artificielle », John McCarthy était un informaticien américain, pionnier dans le domaine de l’IA, connu pour avoir organisé la première conférence sur l’IA à Dartmouth College en 1956. Il a également développé le langage de programmation LISP, qui est devenu un outil fondamental pour la recherche en IA.
OpenAI : Fondée en 2015, OpenAI est une entreprise américaine de recherche et de développement en intelligence artificielle. Elle est connue pour ses avancées majeures dans les modèles de langage et de génération d’images, notamment avec des innovations comme GPT (ChatGPT) et DALL-E.
Overfitting : Phénomène en intelligence artificielle où un modèle s’adapte excessivement aux données d’entraînement, capturant leurs spécificités et bruit, ce qui nuit à sa capacité à prédire ou généraliser sur des données inédites.
Peak Data : Le Peak Data désigne le moment où la quantité de données disponibles pour former des modèles d’intelligence artificielle atteint son maximum, rendant l’acquisition de nouvelles données significatives de plus en plus difficile et pouvant engendrer des erreurs.
Perceptron : Modèle de neurone artificiel capable de prendre plusieurs entrées, de les pondérer, puis de produire une sortie binaire en fonction d’un seuil. C’est l’un des premiers algorithmes d’apprentissage supervisé et la base historique des réseaux de neurones modernes.
Prompt : Un prompt est une instruction ou une question donnée à un système d’intelligence artificielle pour générer une réponse ou un contenu spécifique. Il sert de point de départ pour orienter la production d’informations ou d’idées.
Prompt Chaining : Une chaîne de prompts est une technique consistant à enchaîner plusieurs prompts pour guider une intelligence artificielle dans la réalisation de tâches complexes ou pour affiner ses réponses. En utilisant cette méthode, on peut obtenir des résultats plus précis et cohérents en structurant le processus de manière progressive.
Prompt Engineering : C’est l’art de concevoir et d’affiner des instructions précises et structurées pour interagir avec des modèles d’IA génératives, comme sur Yiaho, afin d’obtenir des réponses pertinentes, cohérentes ou créatives adaptées à un objectif spécifique.
Prompt Injection : Technique malveillante visant à manipuler une IA en insérant des instructions trompeuses dans ses entrées, pour contourner ses règles ou obtenir des réponses non autorisées.
RAG (Retrieval-Augmented Generation) : Méthode d’IA qui combine recherche d’informations et génération de texte. Elle permet à un modèle d’aller chercher des données externes (documents, base de connaissances) pour produire des réponses plus précises et éviter les erreurs.
Reinforcement learning : L’apprentissage par renforcement (ou Reinforcement learning) est une méthode d’intelligence artificielle où un agent apprend à prendre des décisions optimales en interagissant avec un environnement, en recevant des récompenses ou des pénalités selon ses actions.
Réseau de neurones : Un réseau de neurones est un modèle informatique qui imite le fonctionnement du cerveau, constitué de neurones interconnectés. Il traite les données en apprenant à reconnaître des patterns grâce à des couches de neurones qui transmettent des informations entre elles.
Réseau de Neurones Convolutif : Un CNN (Convolutional Neural Network) est un type de réseau de neurones artificiels spécialisé dans le traitement de données structurées en grilles, comme les images. Il utilise des couches de convolution pour extraire automatiquement des caractéristiques (contours, formes, textures) et est particulièrement efficace pour des tâches comme la reconnaissance d’images ou la détection d’objets.
Réseau de Neurones Récurrent (RNN) : Type de réseau de neurones artificiels conçu pour traiter des séquences de données, avec une mémoire interne qui retient le contexte des informations précédentes, idéal pour le langage, la musique ou les séries temporelles.
Rétropropagation (Backpropagation) : Méthode en IA qui aide un réseau de neurones à apprendre en corrigeant ses erreurs. Elle ajuste les connexions internes pour améliorer les prédictions en partant de l’erreur finale.
Sam Altman : Né le 22 avril 1985 à Chicago, est le PDG d’OpenAI depuis 2019 et le cofondateur de cette organisation qui a lancé ChatGPT en 2022, une avancée majeure en IA. Il a également dirigé Y Combinator de 2014 à 2019 et a brièvement été écarté d’OpenAI en 2023 avant d’être réintégré.
Tests d’IA : Les tests d’IA sont des épreuves conçues pour évaluer les capacités des intelligences artificielles, comme leur aptitude à imiter l’humain, résoudre des problèmes ou créer de manière autonome. Parmi les plus connus figurent le Test de Turing, le Test du Café, et le GAIA Benchmark, chacun révélant des facettes spécifiques de l’intelligence des machines.
Token : En intelligence artificielle, un « token » est une unité de texte qui peut être un mot, une sous-partie d’un mot ou même un caractère, selon la méthode de tokenisation utilisée. Les tokens sont utilisés pour transformer le texte brut en une forme que les algorithmes peuvent comprendre et traiter.
Training Data : Les données d’entraînement en IA sont des ensembles de données (entrées et sorties attendues) utilisés pour enseigner à un modèle d’intelligence artificielle à reconnaître des schémas, faire des prédictions ou accomplir des tâches spécifiques.
Transfer Learning : En IA, le Transfer Learning consiste à utiliser un modèle pré-entraîné sur une tâche générale pour accélérer et améliorer l’apprentissage sur une tâche spécifique, en transférant les connaissances acquises.
Transformers : Technologie d’intelligence artificielle introduite en 2017, permettent aux machines de comprendre et de traduire des textes complexes, de générer des images à partir de simples descriptions, ou encore de créer des conversations naturelles, en s’appuyant sur un mécanisme d’attention qui analyse les relations entre les mots ou les éléments visuels.
Tiny Recursive Models (TRM) : Modèles d’IA ultra-compacts (1 à 10 M de paramètres) conçus pour le raisonnement structuré avec récursion profonde et backtrack. Ils surpassent les LLM en logique et en maths, tout en consommant 200 fois moins d’énergie.
Underfitting : En intelligence artificielle, le sous-apprentissage se produit lorsqu’un modèle d’apprentissage automatique est trop simple pour capturer la complexité des données d’entraînement, entraînant de mauvaises performances même sur ces données initiales.
Vibe coding : Méthode de programmation intuitive où l’utilisateur décrit ses idées en langage naturel, et une IA génère le code correspondant. Popularisée en 2025 par Andrej Karpathy, elle privilégie la créativité et la collaboration avec des outils en ligne.
World model : Un world model en intelligence artificielle est une représentation interne dynamique et apprise que construit un système d’IA pour modéliser les lois physiques, causales et temporelles de son environnement. Il permet de simuler des états futurs, de planifier des actions et de raisonner de manière autonome sans interaction constante avec le monde réel.
xAI : Entreprise d’intelligence artificielle fondée par Elon Musk le 9 mars 2023, axée sur le développement d’IA pour la recherche scientifique.
Yann LeCun : Informaticien français, pionnier de l’intelligence artificielle, connu pour avoir développé les premiers réseaux de neurones convolutifs (CNN). En 1989, il a créé LeNet, un modèle pour reconnaître les chiffres manuscrits. Lauréat du prix Turing 2018 avec Geoffrey Hinton et Yoshua Bengio, il est aujourd’hui directeur scientifique de l’IA chez Meta et professeur à l’université de New York.
Zero-Shot Learning : L’apprentissage sans exemple est une technique d’IA permettant à un modèle de reconnaître ou d’effectuer une tâche sur des données non vues. Cette technique s’appuie sur des descriptions sémantiques et des connaissances transférables, sans entraînement spécifique.
