Chez Micelia, notre ambition est de démystifier l’IA pour qu’elle soit compréhensible par tous.
Voici un glossaire complet, reprenant les principaux concepts utilisés par les experts et la littérature spécialisée, avec des explications simples et imagées.
Techniques visant à tromper un modèle en introduisant des données malveillantes ou ambiguës lors de l’entraînement, pour le rendre plus robuste ou l’induire en erreur.
Règlement européen encadrant le développement, l'utilisation et la commercialisation de systèmes d'intelligence artificielle. Il classe les systèmes en niveaux de risques (minimal, limité, élevé, interdit) et impose des obligations en conséquence (transparence, supervision humaine, etc.).
Suite d’instructions permettant de traiter des données et produire un résultat. Comparable à une recette permettant de transformer les ingrédients en plat fini.
Étiquetage manuel de données (par ex. image de chien avec son label). Utilisé en phase d’apprentissage supervisé comme vérité terrain.
Méthode semi-supervisée où l’opérateur sélectionne des exemples pour annoter, afin d’optimiser l’entraînement.
Approche qui permet à une machine de tirer des règles à partir de données, sans programmation explicite. L’outil apprend à généraliser.
Le modèle crée ses propres tâches d’annotation à partir de données non étiquetées, sans aide humaine.
La machine apprend par essai/erreur avec une récompense associée, comme un joueur apprenant une stratégie gagnante.
Utilisation d’un modèle déjà entraîné sur une tâche pour en apprendre une autre avec peu de données.
Un système qui s’améliore en intégrant des nouvelles données après son déploiement (learning en production).
Distorsion statistique dans les données ou les modèles, qui entraîne des résultats partiaux ou injustes. Exemple : un modèle de recrutement entraîné sur des données historiques biaisées peut favoriser un genre ou une origine.
Ensemble de fonctions et d’outils prêts à l’emploi permettant de créer, entraîner ou déployer des modèles IA. Exemples : TensorFlow, PyTorch, scikit-learn.
Volumes massifs de données numériques utilisées pour entraîner et généraliser les modèles d’IA.
Rectangle délimitant un objet détecté dans une image. Utilisé en vision par ordinateur pour la détection d’objets. Par exemple : encadrer une voiture dans une image de rue.
Morceau ou segment de données textuelles, souvent utilisé dans les modèles LLM pour découper les documents en parties plus petites à traiter (ex : chunk de 512 tokens).
Tâche consistant à assigner une étiquette ou catégorie à une donnée (ex. spam ou non spam pour un e-mail).
Modèle ou algorithme chargé d’effectuer la classification. Ex : un modèle SVM ou un random forestest un classifieur.
Puissance de calcul nécessaire à l’entraînement ou l’inférence (CPU, GPU, TPU). Mesurée en FLOPS, elle impacte performance et coût.
Capacité des systèmes à interpréter des images ou vidéos : reconnaissance d’objets, visages, etc.
Opération mathématique utilisée dans les réseaux de neurones convolutifs (CNN), principalement pour l’analyse d’images. Elle permet d’extraire des motifs comme les contours, textures, etc.
Matière première de l’IA : ce sont les informations (textes, images, chiffres, sons…) utilisées pour entraîner, tester ou prédire avec un modèle.
Techniques d’enrichissement de jeu de données (ex. rotation, bruit, transformation) pour améliorer la généralisation des modèles.
Chaîne d’étapes de traitement des données : collecte, nettoyage, transformation, stockage.
Ensemble structuré de données (images, texte, transactions) utilisé pour entraîner ou évaluer un modèle IA.
Contenus audio/vidéo générés par IA imitant de façon réaliste une personne existante, souvent à des fins trompeuses.
Sous-catégorie du Machine Learning utilisant de très grands réseaux de neurones multicouches pour extraire des représentations complexes.
Approche avancée en intelligence artificielle qui combine des modèles de langage (LLM) avec des capacités de raisonnement sur plusieurs étapes pour résoudre des problèmes complexes ou répondre à des questions multi-niveaux.
Exemple : plutôt que de répondre directement à "Quel est le lien entre la Révolution industrielle et l’intelligence artificielle ?", un système de deep search va explorer des sous-questions intermédiaires, construire une chaîne logique, et fournir une réponse riche et cohérente.
Tâche de repérer la présence et la position d’un objet dans une image. Elle s’accompagne souvent d’une bounding box. Exemple : détecter tous les piétons dans une image de rue.
Exécution d’algorithmes d’IA directement sur des appareils périphériques (IoT, mobile), réduisant latence et préservant la confidentialité.
Cadres spécifiques (utilisateurs, données et usage) pour lequel un modèle IA est conçu.
Processus d’apprentissage d’un modèle à partir de données. Il consiste à ajuster ses paramètres internes (poids) pour qu’il minimise l’erreur sur un ensemble d’exemples connus.
Capacité à comprendre et justifier les décisions d’un système d’IA. Cela inclut savoir pourquoi un modèle a pris telle ou telle décision, essentiel pour la confiance, la conformité et l’éthique.
Variable ou attribut utilisé par un modèle pour faire des prédictions. Ex : pour prédire le prix d’un bien immobilier, les features peuvent être la surface, la localisation, le nombre de pièces…
Capacité d’un modèle à apprendre à partir d’un petit nombre d’exemples. Plutôt que d’avoir besoin de milliers d’entrées annotées, on montre au modèle 1 à 10 exemples, et il généralise la tâche.
Exemple : apprendre à reconnaître un nouveau type d’insecte à partir de 5 images seulement. C’est une alternative légère au fine-tuning, très utilisée avec les modèles de langage comme GPT.
Affinage d’un modèle pré-entraîné sur un nouveau jeu de données spécifique, pour adapter ses performances à un cas d’usage particulier. Exemple : affiner GPT pour comprendre un jargon métier.
Fonction mathématique au sein d’un neurone artificiel déterminant s’il s’active selon certaines conditions.
Mesure de l’écart entre prédictions du modèle et réalité ; guide l’apprentissage.
Ensemble d’outils, de bibliothèques et de bonnes pratiques structurées pour créer et déployer des systèmes IA. Les frameworks accélèrent le développement, assurent la reproductibilité et facilitent le passage de la recherche à la production.
Exemples célèbres : TensorFlow (par Google), PyTorch (par Meta) ,Hugging Face Transformers (pour les LLMs)
Modèle génératif composé de deux réseaux (générateur vs discriminant) en compétition, capable de créer des images ou sons réalistes.
Famille de modèles capables de créer des contenus originaux (texte, image, son…) à partir d’un prompt ou instruction.
Capacité d’un modèle à bien fonctionner sur des données nouvelles, jamais vues pendant l'entraînement.
Approche mixte où l’humain intervient pour guider, corriger ou valider les décisions de l’IA.
Paramètre choisi avant l’apprentissage (ex. taux d’apprentissage, taille du batch), qui impacte le comportement du modèle.
Recherche automatique des meilleurs hyperparamètres via méthode (grid search, Bayesian optimization).
Systèmes conçus pour une tâche spécifique, sans intelligence générale ou conscience.
Intelligence artificielle générale hypothétique, comparable à l’intelligence humaine dans tous les domaines.
Combinaison d’approches symboliques (règles explicites) et statistiques (deep learning), pour allier performance et explicabilité.
Phase pendant laquelle un modèle déjà entraîné est utilisé pour faire une prédiction ou une recommandation à partir de nouvelles données.
Mesure de performance utilisée en détection d’objets. Elle compare la zone d’une bounding box prédite avec la zone de vérité terrain (ground truth). Une IoU proche de 1 indique une excellente détection.
Cycle complet d’un processus d’apprentissage ou d’optimisation (ex. un passage complet sur l’ensemble des données d’entraînement). Plusieurs itérations sont nécessaires pour converger vers un bon modèle.
Unité linguistique (mot ou sous-partie) traitée par un LLM lors de la génération ou l’analyse.
Temps nécessaire entre l’envoi d’une requête à un modèle et la réception de sa réponse. En IA, faible latence = réponse rapide, très important en temps réel (voiture autonome, assistants vocaux…).
Niveau d’un réseau de neurones où s’effectuent des calculs. Les modèles IA sont empilés en couches successives, chaque couche apprenant des représentations de plus en plus complexes.
Modèle entraîné sur d’énormes corpus textuels pour générer ou comprendre du langage naturel à grande échelle.
Méthode permettant d'adapter un modèle d'IA, notamment les modèles de diffusion, à des tâches plus spécifiques sans avoir besoin de réentraîner l'ensemble du modèle
Sous-domaine de l’IA où les systèmes apprennent automatiquement à partir des données, sans être explicitement programmés. On distingue l’apprentissage supervisé, non supervisé, et par renforcement.
Norme qui permet aux grands modèles de langage (LLM) de se connecter de manière sécurisée et bidirectionnelle à diverses sources de données et outils externes.
Structure algorithmique dotée de paramètres (poids) apprise à partir de données pour accomplir une tâche spécifique.
Algorithme qui prédit l’appartenance d’un exemple à une classe (ex. classifier un email comme spam ou non).
Algorithme capable de générer de nouvelles données similaires aux données d’entraînement.
Modèle pré-entraîné sur d’énormes volumes de données avec capacité générale adaptable à de nombreuses tâches.
Modèle initialement entraîné sur un grand corpus, puis affiné sur une tâche spécifique (fine tuning).
Méthode utilisée pour retrouver, dans une base de données, les éléments les plus similaires à un point donné.
Déploiement d’un système (modèle IA, base de données…) sur l’infrastructure informatique locale d’une entreprise, plutôt que sur le cloud. Avantage : contrôle et confidentialité. Inconvénient : coûts d’entretien.
Ensemble de données libres d’accès, pouvant être utilisées, modifiées et redistribuées par tous. Les gouvernements, institutions publiques, universités ou entreprises publient ces données pour favoriser la recherche, la transparence, et l’innovation.
Donnée qui diffère significativement du reste de l’échantillon. Les outliers peuvent fausser l’apprentissage si non traités. Ex : un revenu de 1 million € dans un jeu de données de salaires typiques.
Quand un modèle apprend trop les détails du jeu d’entraînement au détriment de sa capacité à généraliser à de nouvelles données.
Paramètres du modèle appris durant l’entraînement, représentant l’impact de chaque connexion entre neurones.
Injection de données malveillantes dans le jeu d’entraînement pour manipuler le comportement du modèle.
Commande textuelle donnée à un modèle génératif pour générer du contenu contextuel (texte, image…).
Technique combinant recherche documentaire et génération : un modèle LLM va chercher l’info dans une base de données externe (ou documents) avant de répondre, augmentant ainsi la précision et la fraîcheur.
Algorithme d’apprentissage automatique supervisé, composé de plusieurs arbres de décision (d’où la métaphore de la forêt).
Renforcement combiné avec retours humains pour corriger et guider l’apprentissage, utilisé dans les LLMs modernes.
Variante du RAG où le système de génération est encore plus profondément guidé par les documents récupérés, parfois jusqu’au niveau de chaque mot. Cela permet des réponses très ancrées dans la source.
Tâche de découpage d’image où chaque pixel est classifié. Elle permet de distinguer finement les objets et leurs contours. Exemple : distinguer chaque cellule dans une image microscopique.
Utilisation d’outils d’IA sans supervision IT officielle, avec risques de sécurité et gouvernance.
Hypothétique moment où l’IA dépasserait l’intelligence humaine dans tous les domaines et amorcerait une croissance auto-accélérée incontrôlable. Sujet de débats scientifiques et éthiques.
Modèle de langage de taille plus réduite que les LLMs, souvent déployé localement (edge, on-premise). Avantage : rapidité, confidentialité, coût. Exemple : LLaMA-2-7B.
Contenu de mauvaise qualité généré automatiquement, sans contrôle éditorial, inondant le web.
Dans le contexte de l’IA, une tâche désigne le problème spécifique que l’on cherche à résoudre avec un modèle.
Test de capacités conversationnelles proposé par Alan Turing pour déterminer si une machine imite humainement l’intelligence.
Architecture de réseau neuronal à base d’attention utilisée pour les LLMs et modèles génératifs.
Machine apprend des structures dans des données non étiquetées, par exemple avec clustering ou PCA.
Voir sous Computer Vision ci‑dessus.
Modèle multimodal capable de traiter à la fois du texte et des images. Il peut par exemple répondre à des questions sur une image, générer des légendes ou traduire des éléments visuels en mots.
Capacité d’un modèle à effectuer une tâche sans avoir vu aucun exemple spécifique au préalable.