Glossaire de l'Intelligence Artificielle

Plus de 40 définitions pour comprendre l'IA générative, les LLM, les agents IA et les concepts clés de l'intelligence artificielle moderne.

53 termes trouvés

A3 termes

A2A (Agent-to-Agent Protocol)

Agents IA

Protocole permettant la communication et la collaboration entre différents agents IA. Il définit comment les agents peuvent échanger des informations, coordonner leurs actions et collaborer pour accomplir des tâches complexes nécessitant plusieurs compétences.

Termes liés :

Agent IA

Agents IA

Système d'intelligence artificielle autonome composé de plusieurs éléments clés qui lui permettent d'accomplir des tâches complexes : un objectif clair défini par des instructions précises, une mémoire pour conserver le contexte des interactions passées, une base de connaissances (souvent via RAG) pour accéder à des informations spécifiques, un moteur de raisonnement (LLM) pour analyser et prendre des décisions, et des outils ou fonctions (APIs, bases de données, etc.) pour interagir avec des systèmes externes. Contrairement à un simple chatbot, un agent peut planifier, exécuter des actions concrètes et s'adapter de manière autonome pour atteindre son but.

Termes liés :

API (Application Programming Interface)

Concepts

Interface qui permet à des applications d'accéder aux fonctionnalités d'un modèle d'IA sans avoir à le déployer localement. Les développeurs utilisent les API pour intégrer des modèles comme GPT-4 ou Claude dans leurs applications.

Termes liés :

B2 termes

Base Vectorielle / Vector Database

Architecture

Type de base de données spécialisée dans le stockage et la recherche d'embeddings. Elle permet de retrouver rapidement les documents les plus similaires à une requête donnée en comparant leurs représentations vectorielles.

Termes liés :

Benchmark

Concepts

Test standardisé utilisé pour évaluer et comparer les performances de différents modèles d'IA. Les benchmarks mesurent des capacités comme le raisonnement, la compréhension ou la génération de code.

Termes liés :

C2 termes

ChatGPT

Modèles

Application d'intelligence artificielle générative développée par OpenAI, basée sur les modèles GPT. C'est l'outil qui a popularisé l'IA générative auprès du grand public en novembre 2022.

Termes liés :

Claude

Modèles

Famille de grands modèles de langage développés par Anthropic, conçus avec un accent particulier sur la sécurité et l'utilité. Claude se distingue par sa capacité à gérer de très longues fenêtres de contexte.

Termes liés :

D1 terme

Deep Learning (DL)

Fondamentaux

Sous-catégorie du machine learning qui utilise des réseaux de neurones artificiels à plusieurs couches pour traiter des données complexes. Ces réseaux s'inspirent du fonctionnement du cerveau humain et permettent notamment aux modèles d'apprendre des représentations sophistiquées des données.

Termes liés :

E2 termes

Edge Computing / Traitement en périphérie

Concepts

Approche consistant à exécuter des modèles d'IA localement sur l'appareil de l'utilisateur plutôt que dans le cloud. Cela réduit la latence, protège la confidentialité des données et diminue les coûts de bande passante.

Termes liés :

Embeddings

Architecture

Représentations numériques de textes, images ou autres contenus sous forme de vecteurs dans un espace mathématique multidimensionnel. Les contenus similaires sont placés proches les uns des autres, permettant de mesurer la similarité sémantique.

Termes liés :

F4 termes

Fenêtre de Contexte (Context Window)

Architecture

Nombre maximum de tokens qu'un modèle peut traiter simultanément en entrée et en sortie. Par exemple, Claude peut gérer jusqu'à 200 000 tokens, permettant de traiter des documents très longs ou des conversations étendues.

Termes liés :

Few-shot Learning

Techniques

Technique où on fournit au modèle quelques exemples de la tâche souhaitée dans le prompt, lui permettant de comprendre et d'accomplir la tâche sans entraînement supplémentaire.

Termes liés :

Fine-tuning (Affinage)

Entraînement

Phase d'entraînement supervisé qui adapte un modèle pré-entraîné à des tâches ou domaines spécifiques. On ajuste les paramètres du modèle avec des données ciblées pour améliorer ses performances sur des applications particulières.

Termes liés :

Foundation Model (Modèle de Fondation)

Modèles

Modèle d'IA large et polyvalent, pré-entraîné sur d'énormes quantités de données diverses, qui sert de base pour développer des applications spécialisées. Ces modèles comme GPT-4, Claude ou LLaMA peuvent être adaptés à de multiples tâches via le fine-tuning ou le prompt engineering.

Termes liés :

G3 termes

Gemini

Modèles

Suite de modèles d'IA multimodaux développés par Google DeepMind, capables de traiter simultanément du texte, des images et d'autres types de contenus.

Termes liés :

GPT (Generative Pre-trained Transformer)

Modèles

Série de grands modèles de langage développés par OpenAI (GPT-3, GPT-4, etc.). Ces modèles sont pré-entraînés sur d'énormes corpus de textes puis affinés pour diverses tâches de génération de langage.

Termes liés :

Graph RAG

Techniques

Évolution avancée du RAG qui utilise des bases de données de graphes pour représenter les relations complexes entre les concepts et entités. Cette approche permet une compréhension plus riche des connexions entre informations, améliorant la pertinence des réponses pour des questions nécessitant un raisonnement sur plusieurs entités interconnectées.

Termes liés :

H2 termes

Hallucination

Concepts

Phénomène où le modèle génère des informations inventées ou incorrectes avec une apparence de confiance. C'est une limitation majeure des LLM qui peuvent produire du contenu plausible mais factuellement faux, surtout sur des sujets qu'ils ne connaissent pas bien.

Termes liés :

Human in The Loop

Opérations

Approche où des humains interviennent dans le processus de décision ou de validation des systèmes d'IA pour améliorer la qualité, la sécurité et la fiabilité. Cela peut inclure la vérification des réponses, la correction d'erreurs ou la validation avant des actions critiques.

Termes liés :

I7 termes

IA Faible

Fondamentaux

Intelligence artificielle conçue pour accomplir une tâche spécifique de manière performante, sans conscience ni compréhension réelle. La plupart des IA actuelles, y compris les LLM, sont des IA faibles : elles excellent dans leurs domaines mais ne peuvent pas transférer leurs compétences à d'autres contextes.

Termes liés :

IA Forte

Fondamentaux

Hypothétique intelligence artificielle qui posséderait une conscience et une compréhension semblables à l'intelligence humaine, capable de prendre en charge des situations complexes variées de manière autonome. Cette technologie reste hors de portée aujourd'hui et probablement encore pour longtemps.

Termes liés :

IA Traditionnelle / IA Discriminative

Fondamentaux

Intelligence artificielle conçue pour analyser, classer, prédire ou recommander à partir de données existantes. Elle utilise des algorithmes statistiques et des arbres de décision, mais ne crée pas de nouveau contenu original.

Termes liés :

IDP (Intelligent Document Processing)

Concepts

Ensemble de technologies utilisant l'IA pour extraire, comprendre et traiter automatiquement les informations contenues dans les documents. Avec l'IA générative, l'IDP peut désormais comprendre le contexte, interpréter le sens et gérer des documents complexes non structurés.

Termes liés :

Inférence

Entraînement

Phase d'utilisation du modèle entraîné pour générer des réponses à partir de nouvelles requêtes. C'est lorsque vous posez une question à ChatGPT ou Claude et que le modèle produit une réponse en temps réel.

Termes liés :

Intelligence Artificielle (IA)

Fondamentaux

Ensemble de technologies permettant à des machines de simuler des capacités cognitives humaines comme la réflexion, l'apprentissage et la prise de décision. L'IA se développe depuis les années 1950 et connaît aujourd'hui une évolution majeure avec l'arrivée des modèles génératifs.

Termes liés :

Intelligence Artificielle Générative (IA Générative / GenAI)

Fondamentaux

Type d'intelligence artificielle capable de créer du contenu original comme du texte, des images, du code, de l'audio ou de la vidéo à partir de simples instructions en langage naturel. Elle fonctionne grâce à des modèles entraînés sur de grandes quantités de données et se distingue de l'IA traditionnelle qui se limite à analyser, classer ou prédire.

Termes liés :

L4 termes

LangGraph

Agents IA

Bibliothèque développée pour construire des applications d'agents IA avec des workflows complexes sous forme de graphes. Elle permet de créer des agents capables de gérer des tâches multi-étapes avec des branchements conditionnels et des boucles de raisonnement.

Termes liés :

Large Language Model (LLM / Grand Modèle de Langage)

Modèles

Modèle d'intelligence artificielle basé sur l'architecture Transformer, entraîné sur des volumes massifs de textes et contenant des milliards de paramètres. Il peut comprendre et générer du langage naturel en prédisant le prochain mot ou token le plus probable, permettant ainsi des tâches comme la traduction, la rédaction ou la conversation.

Termes liés :

LLaMA (Large Language Model Meta AI)

Modèles

Famille de modèles de langage open-source développés par Meta (Facebook), rendus publics pour permettre à la communauté de recherche de les améliorer et de les adapter.

Termes liés :

LLMOps (Large Language Model Operations)

Opérations

Ensemble de pratiques et d'outils pour gérer le déploiement, la surveillance et la maintenance des modèles de langage en production. C'est l'équivalent du DevOps adapté aux modèles d'IA générative.

Termes liés :

M5 termes

Machine Learning (ML)

Fondamentaux

Branche de l'intelligence artificielle où les machines apprennent à partir de données sans être explicitement programmées pour chaque tâche. Le système améliore ses performances en analysant des exemples et en identifiant des patterns, sans qu'on lui donne des règles précises à suivre.

Termes liés :

MCP (Model Context Protocol)

Agents IA

Protocole développé par Anthropic pour standardiser la communication entre les agents IA et les sources de données. Il facilite l'intégration des modèles avec différents systèmes et bases de connaissances.

Termes liés :

Mistral

Modèles

Modèle de langage open-source développé par la startup française Mistral AI. Il offre des performances compétitives tout en étant plus accessible et personnalisable que les modèles propriétaires.

Termes liés :

Modèle Propriétaire

Modèles

Modèle développé par une entreprise qui en conserve le contrôle exclusif. GPT-4 d'OpenAI ou Claude d'Anthropic sont des exemples de modèles propriétaires accessibles uniquement via leurs API.

Termes liés :

Multimodalité

Architecture

Capacité d'un modèle d'IA à traiter et générer différents types de contenus (texte, image, audio, vidéo) simultanément. Les modèles multimodaux peuvent par exemple analyser une image et générer une description textuelle.

Termes liés :

N1 terme

NLP (Natural Language Processing)

Concepts

Domaine de l'IA permettant aux machines de comprendre, interpréter et générer du langage humain. Le NLP englobe diverses techniques allant de l'analyse de sentiments à la traduction automatique.

Termes liés :

O3 termes

Observabilité

Opérations

Capacité à comprendre et surveiller le comportement interne d'un système d'IA en production en collectant des métriques, logs et traces. L'observabilité permet de détecter les problèmes, d'analyser les performances et d'améliorer continuellement les applications d'IA générative.

Termes liés :

OCR (Optical Character Recognition)

Concepts

Technologie qui convertit des images de texte en texte éditable numérique. C'est une étape de base du traitement de documents, mais qui ne comprend pas le sens du texte reconnu.

Termes liés :

Open Source

Modèles

Se dit d'un modèle ou d'un logiciel dont le code source est librement accessible et modifiable. Les modèles open-source comme LLaMA ou Mistral peuvent être adaptés aux besoins spécifiques des entreprises.

Termes liés :

P4 termes

Paramètre

Architecture

Valeur numérique apprise par le modèle durant son entraînement, comparable à un « souvenir » que la mémoire collecte pendant l'apprentissage. Un modèle comme GPT-4 peut contenir plus de 175 milliards de paramètres, ce qui lui confère sa puissance de compréhension et de génération.

Termes liés :

Pré-entraînement

Entraînement

Phase initiale non supervisée où le modèle apprend à partir d'énormes quantités de données textuelles disponibles publiquement. Durant cette étape, le modèle apprend les structures du langage, les connaissances générales et les relations entre concepts.

Termes liés :

Prompt

Techniques

Instruction ou question fournie au modèle d'IA générative pour obtenir une réponse. La qualité et la précision du prompt influencent directement la qualité de la réponse générée, d'où l'importance du "prompt engineering".

Termes liés :

Prompt Engineering

Techniques

Art de formuler des instructions efficaces pour obtenir les meilleures réponses d'un modèle d'IA générative. Cela implique d'être clair, détaillé, de fournir des exemples et de structurer sa demande de manière optimale.

Termes liés :

R3 termes

RAG (Retrieval-Augmented Generation)

Techniques

Technique qui enrichit les réponses d'un LLM en intégrant des informations récupérées depuis une base de connaissances externe. Au lieu de se fier uniquement aux données d'entraînement, le système interroge une base documentaire actualisée pour générer des réponses plus précises et contextuelles.

Termes liés :

ReAct (Reasoning and Acting)

Agents IA

Framework pour les agents IA qui combine le raisonnement et l'action de manière itérative. Le modèle alterne entre la réflexion sur la tâche à accomplir et l'exécution d'actions concrètes, permettant une résolution de problèmes plus structurée et traçable.

Termes liés :

RLHF (Reinforcement Learning from Human Feedback)

Entraînement

Technique d'alignement qui utilise les retours humains pour améliorer les réponses du modèle et les rendre plus utiles, sûres et conformes aux attentes. Des évaluateurs humains notent les réponses, permettant au modèle d'apprendre quelles réponses sont préférables.

Termes liés :

S2 termes

Safeguards (Garde-fous)

Opérations

Mécanismes de sécurité intégrés aux modèles d'IA pour empêcher la génération de contenu dangereux, biaisé ou inapproprié. Ces garde-fous incluent des filtres de contenu, des limites éthiques et des systèmes de détection pour garantir une utilisation responsable de l'IA.

Termes liés :

SLM (Small Language Model / Petit Modèle de Langage)

Modèles

Modèle de langage de taille réduite, optimisé pour des tâches spécifiques avec moins de ressources. Les SLM sont plus rapides, moins coûteux et plus écologiques que les LLM tout en restant efficaces dans leur domaine de spécialisation.

Termes liés :

T4 termes

Température

Concepts

Paramètre qui contrôle le degré de créativité ou d'aléatoire dans les réponses générées. Une température basse produit des réponses plus prévisibles et factuelles, tandis qu'une température élevée génère des réponses plus créatives et variées.

Termes liés :

Token

Architecture

Unité de texte (mot, partie de mot, ponctuation ou symbole) utilisée par les modèles de langage pour traiter l'information. Un modèle découpe le texte en tokens avant de le traiter, et génère sa réponse token par token.

Termes liés :

ToT (Tree of Thoughts / Arbre de Pensées)

Agents IA

Technique de raisonnement avancée où le modèle explore plusieurs chemins de réflexion possibles avant de choisir la meilleure solution. Comme un arbre de décision, le modèle évalue différentes branches de raisonnement pour résoudre des problèmes complexes.

Termes liés :

Transformer

Architecture

Architecture de réseau de neurones introduite en 2017 par l'article "Attention is All You Need" de Google, devenue la base des modèles de langage modernes. Elle permet au modèle de comprendre le contexte et les relations entre les mots d'une phrase, même s'ils sont éloignés les uns des autres.

Termes liés :

Z1 terme

Zero-shot Learning

Techniques

Capacité d'un modèle à accomplir une tâche sans avoir été spécifiquement entraîné pour celle-ci. Le modèle s'appuie sur sa compréhension générale pour résoudre des problèmes nouveaux.

Termes liés :

Envie de maîtriser ces concepts en pratique ?

Notre bootcamp Agentic Coding vous forme en 3 jours intensifs à Claude Code, Cursor et le MCP Protocol pour créer des agents IA performants.

Découvrir le Bootcamp