L'intelligence artificielle a fait irruption dans le vocabulaire professionnel avec une vague de jargon technique. Ce lexique définit clairement les 32 termes les plus utiles pour comprendre les conversations IA en 2026, du prompt engineering au RAG en passant par l'AI Act. Chaque définition est pensée pour un professionnel non-technique.
Comment utiliser ce lexique
Les termes sont classés alphabétiquement. Chaque définition est associée à un exemple concret en entreprise et, quand pertinent, à un lien vers nos articles de fond pour aller plus loin.
A
Agent IA
Système d'IA capable d'exécuter une suite de tâches en autonomie pour atteindre un objectif, sans valider chaque étape avec l'utilisateur. Exemples : Anthropic Dispatch (Claude qui pilote votre PC), OpenAI Operator. C'est la tendance forte de 2026, qui dépasse l'IA conversationnelle classique.
AI Act
Règlement européen (UE) 2024/1689 sur l'intelligence artificielle. Pleinement applicable au 2 août 2026. Impose des obligations graduées selon le niveau de risque du système d'IA. Voir notre guide complet AI Act.
Algorithme
Suite finie d'instructions pour résoudre un problème ou exécuter une tâche. Tous les systèmes d'IA reposent sur des algorithmes, mais tous les algorithmes ne sont pas de l'IA (un tableau Excel utilise des algorithmes simples sans IA).
B
Biais algorithmique
Défaut d'un système d'IA qui produit des résultats systématiquement injustes envers une catégorie de personnes. Souvent causé par des données d'entraînement déséquilibrées. Exemple : un ATS formé sur 10 ans de CV majoritairement masculins peut pénaliser les candidatures féminines.
C
ChatGPT
Assistant conversationnel d'OpenAI, lancé en novembre 2022. Version 2026 : GPT-5.5 Instant. Le plus utilisé en entreprise pour la rédaction, l'analyse et l'aide à la décision. Voir notre guide formation ChatGPT.
Claude
Assistant IA d'Anthropic, concurrent de ChatGPT. Version 2026 : Opus 4.7. Connu pour la qualité de son raisonnement, sa fenêtre de contexte très longue (1 million de tokens) et sa sécurité alignée. Très utilisé pour le code et l'analyse documentaire.
Copilot
Assistant IA de Microsoft, intégré à Microsoft 365 (Word, Excel, Outlook, Teams). Powered by GPT et, depuis 2026, par Claude. Voir notre guide formation Copilot.
Corpus
Ensemble structuré de textes ou de données utilisé pour entraîner un modèle d'IA. Le corpus de GPT-4 contient des centaines de milliards de mots issus du web, de livres, de Wikipedia, de code source, etc.
D
Deep learning
Sous-domaine du machine learning basé sur des réseaux de neurones profonds (plusieurs couches). C'est la technique qui a permis l'explosion de l'IA depuis 2012. Tous les LLM modernes (GPT, Claude, Gemini) utilisent du deep learning.
E
Embedding
Représentation numérique d'un mot, d'une phrase ou d'un document sous forme de vecteur (liste de nombres). Permet à l'IA de "comprendre" la similarité sémantique. Base technique du RAG.
F
Fine-tuning
Technique consistant à spécialiser un modèle pré-entraîné généraliste sur un domaine spécifique (juridique, médical, marque propre). Cher et complexe. Souvent remplacé aujourd'hui par le RAG, moins coûteux.
G
Gemini
Assistant IA de Google, intégré à Workspace (Gmail, Docs, Sheets). Version 2026 : Gemini 3 Pro. Avantage clé : accès natif aux données Google de l'entreprise (calendrier, drive, mails).
GPT (Generative Pre-trained Transformer)
Famille de modèles d'OpenAI. "Generative" = génère du contenu, "Pre-trained" = pré-entraîné sur un corpus massif, "Transformer" = architecture neuronale particulière (inventée par Google en 2017).
H
Hallucination
Quand un modèle d'IA produit une réponse inexacte mais formulée avec assurance. ChatGPT invente parfois des sources, des citations, des chiffres. C'est le risque #1 à connaître en entreprise : toute réponse d'IA doit être vérifiée.
I
IA générative
Catégorie d'IA qui crée du contenu (texte, image, son, vidéo, code) plutôt que de simplement classifier ou prédire. ChatGPT, DALL-E, Midjourney, Suno : tout est IA générative.
Inférence
Phase d'utilisation d'un modèle d'IA déjà entraîné, par opposition à l'entraînement. Quand vous tapez un prompt dans ChatGPT, vous déclenchez une inférence. Le coût principal d'une IA à grande échelle est l'inférence (ChatGPT brule des millions de dollars par jour en inférence).
Intelligence artificielle
Définition large : capacité d'une machine à réaliser des tâches qui requéraient précédemment l'intelligence humaine. En 2026, le terme désigne principalement les systèmes basés sur le machine learning (deep learning en particulier).
L
LLM (Large Language Model)
Modèle de langage de grande taille, entraîné sur un corpus textuel massif. GPT-5.5, Claude Opus 4.7, Gemini 3 Pro, Mistral Large sont des LLM. Ce sont les "moteurs" derrière les assistants conversationnels.
M
Machine learning
Branche de l'IA où les systèmes apprennent à partir de données plutôt que d'être programmés explicitement. Recouvre supervised learning, unsupervised learning, reinforcement learning, deep learning.
MCP (Model Context Protocol)
Protocole ouvert lancé par Anthropic en 2024 pour connecter des LLM à des outils et données externes. Devient un standard en 2026. Permet par exemple à Claude de lire votre Google Drive ou de piloter votre Webflow.
Mistral AI
Startup française (Paris), leader européen de l'IA. Modèles open weight (Mistral Large, Mixtral) et propriétaires (Le Chat). Argument souveraineté européenne pour les entreprises sensibles à la résilience.
Multimodal
Capacité d'un modèle à traiter plusieurs types de données en même temps : texte, image, audio, vidéo. GPT-5.5 et Gemini 3 Pro sont multimodaux : vous pouvez leur envoyer une photo d'un tableau Excel et leur demander de l'analyser.
N
NLP (Natural Language Processing)
Traitement automatique du langage naturel. Sous-domaine de l'IA qui couvre la compréhension et la génération de texte. Les LLM sont l'aboutissement actuel du NLP.
O
OPCO
Opérateur de compétences. 11 organismes en France qui financent la formation professionnelle des entreprises. Toutes les formations IA dispensées par un organisme certifié Qualiopi sont éligibles. Voir notre guide financement OPCO.
P
Prompt
Instruction donnée à un modèle d'IA. Peut être une question, une consigne, un contexte. La qualité du prompt détermine directement la qualité de la réponse.
Prompt engineering
Art de formuler des prompts efficaces pour obtenir le meilleur résultat d'un modèle d'IA. Devient une compétence transversale en entreprise. Voir notre guide prompt engineering.
Q
Qualiopi
Certification française des organismes de formation, obligatoire depuis 2022 pour accéder aux financements publics et OPCO. Repose sur 7 critères et 32 indicateurs audités tous les 3 ans. Voir notre guide Qualiopi.
R
RAG (Retrieval Augmented Generation)
Technique qui augmente un LLM avec une base de connaissances externe. Au lieu de fine-tuner le modèle, on lui donne au moment de l'inférence les documents pertinents extraits d'une base vectorielle. Permet aux LLM d'utiliser vos données internes en temps réel.
RGPD
Règlement général sur la protection des données (UE) 2016/679. Cadre de protection des données personnelles. Complémentaire de l'AI Act : un système d'IA qui traite des données personnelles est soumis aux deux.
T
Token
Unité de base traitée par un LLM. Un token correspond à environ 0,75 mot en français. La fenêtre de contexte d'un modèle se mesure en tokens : Claude Opus 4.7 accepte jusqu'à 1 million de tokens (environ 750 000 mots, soit un livre entier).
Transformer
Architecture de réseau de neurones inventée par Google en 2017. Base technique de tous les LLM modernes. Capable de traiter du texte en parallèle et de modéliser les relations à longue distance entre les mots.
V
Vector database (base vectorielle)
Base de données spécialisée dans le stockage et la recherche d'embeddings. Composant clé d'un système RAG. Exemples : Pinecone, Weaviate, Qdrant, pgvector.
Une question sur un terme qui n'est pas dans la liste ?
Posez-la directement en formation ou prenez rendez-vous pour un échange gratuit avec un expert IAvenir.
