July 30, 2025

Le Grand Lexique de l’Intelligence Artificielle : le glossaire pour mieux comprendre l’IA

Le Grand Lexique de l’Intelligence Artificielle : le glossaire pour mieux comprendre l’IA

Chez Micelia, notre ambition est de démystifier l’IA pour qu’elle soit compréhensible par tous.

Voici un glossaire complet, reprenant les principaux concepts utilisés par les experts et la littérature spécialisée, avec des explications simples et imagées.

A

Adversarial AI (IA antagoniste)

Techniques visant à tromper un modèle en introduisant des données malveillantes ou ambiguës lors de l’entraînement, pour le rendre plus robuste ou l’induire en erreur.

AI Act

Règlement européen encadrant le développement, l'utilisation et la commercialisation de systèmes d'intelligence artificielle. Il classe les systèmes en niveaux de risques (minimal, limité, élevé, interdit) et impose des obligations en conséquence (transparence, supervision humaine, etc.).

Algorithme

Suite d’instructions permettant de traiter des données et produire un résultat. Comparable à une recette permettant de transformer les ingrédients en plat fini.

Annotation (IA)

Étiquetage manuel de données (par ex. image de chien avec son label). Utilisé en phase d’apprentissage supervisé comme vérité terrain.

Apprentissage actif

Méthode semi-supervisée où l’opérateur sélectionne des exemples pour annoter, afin d’optimiser l’entraînement.

Apprentissage automatique (Machine Learning)

Approche qui permet à une machine de tirer des règles à partir de données, sans programmation explicite. L’outil apprend à généraliser.

Apprentissage auto-supervisé

Le modèle crée ses propres tâches d’annotation à partir de données non étiquetées, sans aide humaine.

Apprentissage par renforcement

La machine apprend par essai/erreur avec une récompense associée, comme un joueur apprenant une stratégie gagnante.

Apprentissage par transfert (Transfer Learning)

Utilisation d’un modèle déjà entraîné sur une tâche pour en apprendre une autre avec peu de données.

Apprentissage continu

Un système qui s’améliore en intégrant des nouvelles données après son déploiement (learning en production).

B

Biais

Distorsion statistique dans les données ou les modèles, qui entraîne des résultats partiaux ou injustes. Exemple : un modèle de recrutement entraîné sur des données historiques biaisées peut favoriser un genre ou une origine.

Bibliothèque (ou library)

Ensemble de fonctions et d’outils prêts à l’emploi permettant de créer, entraîner ou déployer des modèles IA. Exemples : TensorFlow, PyTorch, scikit-learn.

Big Data

Volumes massifs de données numériques utilisées pour entraîner et généraliser les modèles d’IA.

Bounding box (boîte englobante)

Rectangle délimitant un objet détecté dans une image. Utilisé en vision par ordinateur pour la détection d’objets. Par exemple : encadrer une voiture dans une image de rue.

C

Chunk

Morceau ou segment de données textuelles, souvent utilisé dans les modèles LLM pour découper les documents en parties plus petites à traiter (ex : chunk de 512 tokens).

Classification

Tâche consistant à assigner une étiquette ou catégorie à une donnée (ex. spam ou non spam pour un e-mail).

Classifieur

Modèle ou algorithme chargé d’effectuer la classification. Ex : un modèle SVM ou un random forestest un classifieur.

Compute

Puissance de calcul nécessaire à l’entraînement ou l’inférence (CPU, GPU, TPU). Mesurée en FLOPS, elle impacte performance et coût.

Computer Vision (Vision par ordinateur)

Capacité des systèmes à interpréter des images ou vidéos : reconnaissance d’objets, visages, etc.

Convolution

Opération mathématique utilisée dans les réseaux de neurones convolutifs (CNN), principalement pour l’analyse d’images. Elle permet d’extraire des motifs comme les contours, textures, etc.

D

Data / Données

Matière première de l’IA : ce sont les informations (textes, images, chiffres, sons…) utilisées pour entraîner, tester ou prédire avec un modèle.

Data Augmentation

Techniques d’enrichissement de jeu de données (ex. rotation, bruit, transformation) pour améliorer la généralisation des modèles.

Data Pipeline / Data Processing

Chaîne d’étapes de traitement des données : collecte, nettoyage, transformation, stockage.

Dataset

Ensemble structuré de données (images, texte, transactions) utilisé pour entraîner ou évaluer un modèle IA.

Deepfake

Contenus audio/vidéo générés par IA imitant de façon réaliste une personne existante, souvent à des fins trompeuses.

Deep Learning (Apprentissage profond)

Sous-catégorie du Machine Learning utilisant de très grands réseaux de neurones multicouches pour extraire des représentations complexes.

Deep Search (ou Raisonnement Profond)

Approche avancée en intelligence artificielle qui combine des modèles de langage (LLM) avec des capacités de raisonnement sur plusieurs étapes pour résoudre des problèmes complexes ou répondre à des questions multi-niveaux.
Exemple : plutôt que de répondre directement à "Quel est le lien entre la Révolution industrielle et l’intelligence artificielle ?", un système de deep search va explorer des sous-questions intermédiaires, construire une chaîne logique, et fournir une réponse riche et cohérente.

Détection

Tâche de repérer la présence et la position d’un objet dans une image. Elle s’accompagne souvent d’une bounding box. Exemple : détecter tous les piétons dans une image de rue.

E

Edge AI (Edge Intelligence)

Exécution d’algorithmes d’IA directement sur des appareils périphériques (IoT, mobile), réduisant latence et préservant la confidentialité.

Emploi de domaine (Domaines d’emploi)

Cadres spécifiques (utilisateurs, données et usage) pour lequel un modèle IA est conçu.

Entraînement (Training)

Processus d’apprentissage d’un modèle à partir de données. Il consiste à ajuster ses paramètres internes (poids) pour qu’il minimise l’erreur sur un ensemble d’exemples connus.

Explicabilité

Capacité à comprendre et justifier les décisions d’un système d’IA. Cela inclut savoir pourquoi un modèle a pris telle ou telle décision, essentiel pour la confiance, la conformité et l’éthique.

F

Feature (Caractéristique)

Variable ou attribut utilisé par un modèle pour faire des prédictions. Ex : pour prédire le prix d’un bien immobilier, les features peuvent être la surface, la localisation, le nombre de pièces…

Few-Shot Learning

Capacité d’un modèle à apprendre à partir d’un petit nombre d’exemples. Plutôt que d’avoir besoin de milliers d’entrées annotées, on montre au modèle 1 à 10 exemples, et il généralise la tâche.
Exemple : apprendre à reconnaître un nouveau type d’insecte à partir de 5 images seulement. C’est une alternative légère au fine-tuning, très utilisée avec les modèles de langage comme GPT.

Fine-tuning

Affinage d’un modèle pré-entraîné sur un nouveau jeu de données spécifique, pour adapter ses performances à un cas d’usage particulier. Exemple : affiner GPT pour comprendre un jargon métier.

Fonction d’activation

Fonction mathématique au sein d’un neurone artificiel déterminant s’il s’active selon certaines conditions.

Fonction de perte (Loss function)

Mesure de l’écart entre prédictions du modèle et réalité ; guide l’apprentissage.

Framework (Cadre de développement)

Ensemble d’outils, de bibliothèques et de bonnes pratiques structurées pour créer et déployer des systèmes IA. Les frameworks accélèrent le développement, assurent la reproductibilité et facilitent le passage de la recherche à la production.
Exemples célèbres : TensorFlow (par Google), PyTorch (par Meta) ,Hugging Face Transformers (pour les LLMs)

G

GAN (Generative Adversarial Network)

Modèle génératif composé de deux réseaux (générateur vs discriminant) en compétition, capable de créer des images ou sons réalistes.

GenAI (IA générative)

Famille de modèles capables de créer des contenus originaux (texte, image, son…) à partir d’un prompt ou instruction.

Généralisation

Capacité d’un modèle à bien fonctionner sur des données nouvelles, jamais vues pendant l'entraînement.

H

Human-in-the-loop (HITL)

Approche mixte où l’humain intervient pour guider, corriger ou valider les décisions de l’IA.

Hyperparamètre

Paramètre choisi avant l’apprentissage (ex. taux d’apprentissage, taille du batch), qui impacte le comportement du modèle.

Hyperparameter Optimization

Recherche automatique des meilleurs hyperparamètres via méthode (grid search, Bayesian optimization).

I

IA faible / étroite

Systèmes conçus pour une tâche spécifique, sans intelligence générale ou conscience.

IA forte (AGI)

Intelligence artificielle générale hypothétique, comparable à l’intelligence humaine dans tous les domaines.

IA hybride

Combinaison d’approches symboliques (règles explicites) et statistiques (deep learning), pour allier performance et explicabilité.

Inférence

Phase pendant laquelle un modèle déjà entraîné est utilisé pour faire une prédiction ou une recommandation à partir de nouvelles données.

Intersection over Union (IoU)

Mesure de performance utilisée en détection d’objets. Elle compare la zone d’une bounding box prédite avec la zone de vérité terrain (ground truth). Une IoU proche de 1 indique une excellente détection.

Itération

Cycle complet d’un processus d’apprentissage ou d’optimisation (ex. un passage complet sur l’ensemble des données d’entraînement). Plusieurs itérations sont nécessaires pour converger vers un bon modèle.

J

Jeton textuel (Token)

Unité linguistique (mot ou sous-partie) traitée par un LLM lors de la génération ou l’analyse.

L

Latence

Temps nécessaire entre l’envoi d’une requête à un modèle et la réception de sa réponse. En IA, faible latence = réponse rapide, très important en temps réel (voiture autonome, assistants vocaux…).

Layer (Couche)

Niveau d’un réseau de neurones où s’effectuent des calculs. Les modèles IA sont empilés en couches successives, chaque couche apprenant des représentations de plus en plus complexes.

LLM (Large Language Model / Grand modèle de langage)

Modèle entraîné sur d’énormes corpus textuels pour générer ou comprendre du langage naturel à grande échelle.

LoRA

Méthode permettant d'adapter un modèle d'IA, notamment les modèles de diffusion, à des tâches plus spécifiques sans avoir besoin de réentraîner l'ensemble du modèle

M

Machine Learning (Apprentissage automatique)

Sous-domaine de l’IA où les systèmes apprennent automatiquement à partir des données, sans être explicitement programmés. On distingue l’apprentissage supervisé, non supervisé, et par renforcement.

MCP (Model Context Protocol)

Norme qui permet aux grands modèles de langage (LLM) de se connecter de manière sécurisée et bidirectionnelle à diverses sources de données et outils externes.

Modèle

Structure algorithmique dotée de paramètres (poids) apprise à partir de données pour accomplir une tâche spécifique.

Modèle discriminatif

Algorithme qui prédit l’appartenance d’un exemple à une classe (ex. classifier un email comme spam ou non).

Modèle génératif

Algorithme capable de générer de nouvelles données similaires aux données d’entraînement.

Modèle de fondation (Foundation Model)

Modèle pré-entraîné sur d’énormes volumes de données avec capacité générale adaptable à de nombreuses tâches.

Modèle pré-entraîné

Modèle initialement entraîné sur un grand corpus, puis affiné sur une tâche spécifique (fine tuning).

N

Nearest Neighbors Search (Recherche de plus proches voisins)

Méthode utilisée pour retrouver, dans une base de données, les éléments les plus similaires à un point donné.

O

On Premise

Déploiement d’un système (modèle IA, base de données…) sur l’infrastructure informatique locale d’une entreprise, plutôt que sur le cloud. Avantage : contrôle et confidentialité. Inconvénient : coûts d’entretien.

Open Data

Ensemble de données libres d’accès, pouvant être utilisées, modifiées et redistribuées par tous. Les gouvernements, institutions publiques, universités ou entreprises publient ces données pour favoriser la recherche, la transparence, et l’innovation.

Outlier (Valeur aberrante)

Donnée qui diffère significativement du reste de l’échantillon. Les outliers peuvent fausser l’apprentissage si non traités. Ex : un revenu de 1 million € dans un jeu de données de salaires typiques.

Overfitting (Surapprentissage)

Quand un modèle apprend trop les détails du jeu d’entraînement au détriment de sa capacité à généraliser à de nouvelles données.

P

Poids (Weights)

Paramètres du modèle appris durant l’entraînement, représentant l’impact de chaque connexion entre neurones.

Poisoning (Empoisonnement de données)

Injection de données malveillantes dans le jeu d’entraînement pour manipuler le comportement du modèle.

Prompt (Instruction générative)

Commande textuelle donnée à un modèle génératif pour générer du contenu contextuel (texte, image…).

R

RAG (Retrieval-Augmented Generation)

Technique combinant recherche documentaire et génération : un modèle LLM va chercher l’info dans une base de données externe (ou documents) avant de répondre, augmentant ainsi la précision et la fraîcheur.

Random Forest (Forêt aléatoire)

Algorithme d’apprentissage automatique supervisé, composé de plusieurs arbres de décision (d’où la métaphore de la forêt).

Reinforcement Learning and Human Feedback (RLHF)

Renforcement combiné avec retours humains pour corriger et guider l’apprentissage, utilisé dans les LLMs modernes.

RIG (Retrieval-Informed Generation)

Variante du RAG où le système de génération est encore plus profondément guidé par les documents récupérés, parfois jusqu’au niveau de chaque mot. Cela permet des réponses très ancrées dans la source.

S

Segmentation

Tâche de découpage d’image où chaque pixel est classifié. Elle permet de distinguer finement les objets et leurs contours. Exemple : distinguer chaque cellule dans une image microscopique.

Shadow AI

Utilisation d’outils d’IA sans supervision IT officielle, avec risques de sécurité et gouvernance.

Singularité (Technologique)

Hypothétique moment où l’IA dépasserait l’intelligence humaine dans tous les domaines et amorcerait une croissance auto-accélérée incontrôlable. Sujet de débats scientifiques et éthiques.

SLM (Small Language Model)

Modèle de langage de taille plus réduite que les LLMs, souvent déployé localement (edge, on-premise). Avantage : rapidité, confidentialité, coût. Exemple : LLaMA-2-7B.

Slop (IA slop)

Contenu de mauvaise qualité généré automatiquement, sans contrôle éditorial, inondant le web.

T

Tâche (Task)

Dans le contexte de l’IA, une tâche désigne le problème spécifique que l’on cherche à résoudre avec un modèle.

Test de Turing

Test de capacités conversationnelles proposé par Alan Turing pour déterminer si une machine imite humainement l’intelligence.

Transformeur (Transformer)

Architecture de réseau neuronal à base d’attention utilisée pour les LLMs et modèles génératifs.

U

Unsupervised Learning (Apprentissage non supervisé)

Machine apprend des structures dans des données non étiquetées, par exemple avec clustering ou PCA.

V

Vision par ordinateur

Voir sous Computer Vision ci‑dessus.

VLM (Vision Language Model)

Modèle multimodal capable de traiter à la fois du texte et des images. Il peut par exemple répondre à des questions sur une image, générer des légendes ou traduire des éléments visuels en mots.

Z

Zero-Shot Learning

Capacité d’un modèle à effectuer une tâche sans avoir vu aucun exemple spécifique au préalable.