Glossar
Vous trouverez ici tous les termes importants liés à l’orientation IA résumés.
Agents intelligents
Un agent intelligent est un système qui perçoit son environnement au moyen de capteurs et agit sur celui-ci via des actionneurs. Les agents prennent des décisions pour atteindre des objectifs définis. Il s’agit d’un concept central en IA (Russel & Norvig, 2021).
Par exemple : ChatGPT5de OpenAI (version Plus) propose de tels agents de recherche.
Algorithme
Un algorithme est une suite finie d’étapes de travail clairement définies, permettant de résoudre un problème ou d’exécuter une tâche. En informatique, les algorithmes sont des « recettes » qui indiquent à un ordinateur ce qu’il doit faire, étape par étape (Scribbr, 2023).
Annotation des données
L’annotation des données consiste à enrichir des données telles que des textes, images, vidéos ou audios avec des informations supplémentaires (labels, tags ou marquages). Par exemple, on marque un chien dans une image, on identifie un mot comme verbe dans un texte, ou on transcrit la parole dans un enregistrement audio. Ces données annotées servent de matériel d’entraînement à l’intelligence artificielle, afin que les machines puissent reconnaître des motifs, classer des contenus et exécuter de manière fiable des tâches comme la traduction, la reconnaissance vocale ou la reconnaissance d’images (Datacamp, 2025).
Apprentissage automatique
L’apprentissage automatique (angl. machine learning, abrégé ML) est un sous-domaine de l’intelligence artificielle. Les programmes informatiques apprennent à partir de données existantes à reconnaître des motifs et à produire des prédictions de manière autonome. On distingue l’apprentissage supervisé, non supervisé et par renforcement. Les domaines d’application incluent notamment la reconnaissance vocale et d’images, la traduction automatique, les systèmes de recommandation (Netflix, Spotify, Amazon), les diagnostics médicaux ou la détection de fraude (GeeksforGeeks, 2025).
Apprentissage non supervisé
L’apprentissage non supervisé (unsupervised learning) désigne des méthodes qui fonctionnent sans données étiquetées. Les modèles tentent de découvrir par eux-mêmes des structures et des motifs dans les données, par exemple via le clustering (IBM, oJ).
Apprentissage par renforcement
L’apprentissage par renforcement (reinforcement learning) est une méthode d’apprentissage dans laquelle un agent apprend par interaction avec son environnement. Il reçoit des récompenses ou des punitions et optimise son comportement afin de maximiser le bénéfice cumulé (Murel & Kavlakoglu, o.J.).
Apprentissage profond
L’apprentissage profond (deep learning) est un sous-domaine du machine learning. Il utilise des réseaux neuronaux à multiples couches, qui fonctionnent de manière comparable au cerveau humain, pour reconnaître des motifs complexes dans de grandes quantités de données. Contrairement aux modèles de ML classiques, qui n’emploient que quelques couches, les modèles de deep learning comportent souvent des centaines de couches et peuvent ainsi traiter aussi des données non structurées comme les images, la parole ou les textes. Le deep learning se retrouve derrière de nombreuses applications de notre quotidien : assistants vocaux comme Siri ou Alexa, traductions automatiques, reconnaissance faciale, voitures autonomes ou IA générative (p. ex. ChatGPT). Il s’agit donc d’une technologie clé de l’intelligence artificielle moderne (Bergmann, o.J.).
Apprentissage supervisé
L’apprentissage supervisé (supervised learning) est un paradigme d’apprentissage dans lequel un modèle apprend, à partir de données d’entraînement étiquetées, à établir une correspondance entre des entrées et des sorties. L’objectif est de prédire correctement la sortie pour de nouvelles entrées non étiquetées (IBM, oJ).
Augmentation de données
L’augmentation de données (data augmentation) consiste à enrichir artificiellement le jeu de données d’entraînement au moyen de copies modifiées des données existantes. Cela augmente la diversité des exemples, évite le surapprentissage (overfitting) et améliore la robustesse du modèle (DataCamp, 2024).
Biais de l’IA
Les biais de l’IA (angl. AI bias) désignent des erreurs ou distorsions systématiques dans l’intelligence artificielle, qui apparaissent lorsque les données utilisées pour entraîner un modèle contiennent des préjugés ou sont déséquilibrées. Comme les modèles d’IA apprennent des schémas à partir de données existantes, ils reprennent aussi les inégalités ou stéréotypes qui s’y trouvent. Cela signifie que, si certains groupes sont sous-représentés dans les données d’entraînement ou si des informations unilatérales dominent, l’intelligence artificielle peut prendre des décisions injustes, discriminatoires ou inexactes (Holdsworth, o.J.).
Big Data
Le Big Data désigne des volumes de données extrêmement grands et complexes, caractérisés par un fort volume, une grande vitesse et une grande variété (« 3V : Volume, Vélocité, Variété »). Ces données peuvent provenir d’un grand nombre de domaines différents (Studyflix, oJ).
Bot
Un bot est un logiciel qui exécute automatiquement des tâches sur Internet ou au sein de réseaux. Il suit des règles fixes et peut imiter le comportement humain (souvent plus rapidement et avec moins d’erreurs). Les bots sont utilisés, par exemple, pour parcourir des sites web, répondre à des questions dans un chat ou gérer des informations. À côté de nombreux bots utiles, il existe aussi des variantes malveillantes, capables d’attaquer des systèmes ou de détourner des données (AWS, o.J.).
Chatbot
Un chatbot est un programme informatique qui comprend le langage humain et y répond automatiquement. L’objectif est de simuler des conversations avec les utilisateur·rices et d’apporter du soutien. Alors que les chatbots simples ne fournissent que des réponses prédéfinies, les systèmes modernes utilisent l’intelligence artificielle (IA) et le traitement automatique du langage (Natural Language Processing, NLP) pour mieux comprendre les questions et réagir de manière plus naturelle (IBM, o.J.).
ChatGPT
ChatGPT (GPT : Generative Pre-trained Transformer) est un chatbot d’IA développé par OpenAI, basé sur un grand modèle de langage (Large Language Model, LLM). ChatGPT peut générer une grande variété de contenus, notamment du texte, des images et des vidéos. ChatGPT peut être utilisé gratuitement. Une version Pro payante offre un accès élargi à différents services (OpenAI, 2022).
Dans le contexte scolaire, où des données personnelles et des informations sensibles sont souvent traitées, l’utilisation d’options d’IA telles que ChatGPT exige une prudence particulière en matière de protection des données.
Claude
Claude est un assistant d’IA puissant de l’entreprise Anthropic. Il traite des textes, des images et des documents, aide à écrire, résumer, répondre à des questions et programmer. Claude accorde une grande importance à la sécurité et à un comportement éthique (Belcic & Stryker, o.J.).
Dans le contexte scolaire, où des données personnelles et des informations sensibles sont souvent traitées, l’utilisation d’options d’IA telles que Claude exige une prudence particulière en matière de protection des données.
Clustering
Le clustering (regroupement) est une méthode d’apprentissage non supervisé qui consiste à regrouper des points de données de façon à ce que les objets d’un même groupe se ressemblent davantage entre eux que ceux appartenant à d’autres groupes. Cette technique aide à découvrir des motifs dans des données non structurées (GeeksforGeeks, 2025).
Complexité du modèle
La complexité du modèle décrit à quel point la structure d’un modèle est compliquée (p. ex. nombre de paramètres ou de couches). Des modèles trop complexes peuvent surajuster les données d’entraînement (overfitting), tandis que des modèles trop simples ne parviennent pas à saisir les motifs sous-jacents (underfitting) (Google Developers, 2024).
Copilot
Copilot est l’assistant IA de Microsoft, intégré dans des applications comme Word, Excel, PowerPoint et Teams. Il aide notamment les utilisateur·rices à rédiger des textes, analyser des données, écrire des e-mails et produire des synthèses de réunions, en s’appuyant sur le contexte et les contenus des applications Microsoft concernées (Copilot, o.J.).
Dans le contexte scolaire, où des données personnelles et des informations sensibles sont souvent traitées, l’utilisation d’options d’IA telles que Copilot exige une prudence particulière en matière de protection des données.
Corpus
Un corpus est une grande collection de textes authentiques ou de données linguistiques, constituée à des fins de recherche ou d’entraînement. En IA, un corpus sert de base à l’entraînement des modèles de langage (Subex, 2023).
Cybergrooming
Le pédopiégeage (cybergrooming) désigne l’approche ciblée d’enfants ou d’adolescent·es par des adultes via Internet, dans le but de harcèlement sexuel ou d’exploitation. Les écoles doivent sensibiliser et mettre en place des voies de signalement claires (Kinderschutz Schweiz, o.J.). Les auteur·rices peuvent utiliser l’IA pour créer des profils, des photos ou des messages de chat trompeusement réalistes et gagner ainsi plus facilement la confiance des enfants.
Cyberharcèlement
Le cyberharcèlement (cybermobbing) désigne des attaques répétées dans l’espace numérique, où des personnes sont blessées ou humiliées par des messages insultants, des rumeurs ou des images embarrassantes. Pour les écoles, il est important de prendre les signaux d’alerte au sérieux et d’intervenir tôt (Jugend und Medien). L’IA peut jouer un rôle en renforçant automatiquement des contenus de harcèlement ou en générant des images manipulées, ce qui accentue l’impact des attaques.
DALL·E
DALL·E est un générateur d’images par IA d’OpenAI, capable de produire des images réalistes ou créatives à partir de prompts textuels. La version actuelle DALL·E 3 (depuis 2023) offre une interprétation du texte particulièrement précise et un grand niveau de détail. DALL·E est disponible via ChatGPT (OpenAI, o.J).
Dans le contexte scolaire, où des données personnelles et des informations sensibles sont souvent traitées, l’utilisation d’options d’IA telles que DALL·E exige une prudence particulière en matière de protection des données.
Deepfake
Un deepfake est un type de média synthétique dans lequel le visage ou la voix d’une personne est transféré de manière réaliste, à l’aide de techniques de deep learning, sur la vidéo ou l’audio d’une autre personne. Les deepfakes peuvent être détournés à des fins de fraude ou d’atteinte à la réputation (SRF, 2024).
DeepSeek
DeepSeek est un assistant IA textuel développé par l’entreprise du même nom, DeepSeek. Cette entreprise chinoise a créé un assistant qui répond aux questions, génère des textes et aide dans diverses tâches.
Dans le contexte scolaire, où des données personnelles et des informations sensibles sont souvent traitées, l’utilisation d’options d’IA telles que DeepSeek exige une prudence particulière en matière de protection des données.
Étiquetage des données
Pour que l’intelligence artificielle fonctionne de manière fiable, elle a besoin de données de haute qualité. Lors de l’étiquetage des données (data labeling), des données (p. ex. textes, images, audio ou vidéos) reçoivent des informations supplémentaires. Ces « labels » représentent les « bonnes réponses » en apprentissage supervisé. Ils indiquent, par exemple, si une image contient un chat ou si un texte est formulé positivement. Les modèles d’IA peuvent ainsi apprendre à partir des exemples. Sans un bon étiquetage, on obtient logiquement des résultats de moindre qualité (Datacamp, 2024).
Fake News
Les fake news sont des informations volontairement fausses ou trompeuses, présentées sous l’apparence d’articles sérieux, afin de duper le public et de servir des objectifs politiques ou économiques. Elles sont souvent diffusées en ligne pour attirer l’attention et générer des revenus publicitaires (IONOS, 2021).
Gemini
Gemini est un modèle d’IA de Google, développé par Google DeepMind. Gemini est conçu pour traiter simultanément différents types de données, notamment du texte, des images, de l’audio, de la vidéo et du code. Le modèle Gemini existe en plusieurs tailles, optimisées pour différents domaines d’usage, notamment : Gemini-Ultra, Gemini-Pro, Gemini-Flash, Gemini-Nano. Gemini se distingue par de fortes performances dans la représentation multimédia, en particulier avec le nouveau modèle 2.5 Flash Image (Nano Banana), qui améliore nettement la cohérence des images générées (Gemini, o.J.)
Dans le contexte scolaire, où des données personnelles et des informations sensibles sont souvent traitées, l’utilisation d’options d’IA telles que Gemini exige une prudence particulière en matière de protection des données.
Grand modèle de langage
Un grand modèle de langage (Large Language Model ; LLM) est un modèle d’IA doté d’un très grand nombre de paramètres (souvent des milliards), entraîné à l’aide d’énormes quantités de données (p. ex. livres, articles ou sites web). Il est capable de générer et de comprendre des textes proches du langage humain en repérant des motifs dans ces données. Un exemple connu et récent est GPT-5. Les LLM se distinguent des modèles classiques de traitement du langage, car ils ne sont pas spécialisés dans une seule tâche : ils peuvent être utilisés de manière polyvalente. Ils sont pilotés par de simples entrées en langage naturel, appelées prompts. Un LLM ne comprend pas réellement la langue ni les faits : il se contente de prédire, sur la base de motifs détectés, le mot le plus probable suivant (Microsoft AI Tour, o.J.).
Grok
Grok est un chatbot d’IA de xAI, qui travaille avec des données Internet en temps réel (via la plateforme X et le Web). Il génère des textes, répond à des questions, raisonne en mode « Think » (correction d’erreurs, pensée alternative) et peut créer ou modifier des images. Selon xAI, Grok poursuit l’objectif de maximiser la « vérité et l’objectivité » (Grok, o.J.).
Dans le contexte scolaire, où des données personnelles et des informations sensibles sont souvent traitées, l’utilisation d’options d’IA telles que Grok exige une prudence particulière en matière de protection des données.
Hallucination (IA)
Les modèles d’IA, en particulier les grands modèles de langage, peuvent produire des contenus plausibles mais faux : on parle alors d’« hallucination ». Ces erreurs résultent de la nature statistique des modèles et de l’absence de compréhension profonde des contenus (IBM, o.J.).
Humain dans la boucle
Le principe humain dans la boucle (Human in the Loop) désigne une approche d’apprentissage dans laquelle des humains sont activement impliqués dans l’entraînement et le test des modèles d’IA. Les retours humains sont intégrés dans une boucle de feedback continue afin d’améliorer les résultats et de réduire les erreurs ou les biais (Stryker, o.J.).
IA explicable
L’IA explicable (angl. Explainable AI, abrégé XAI) désigne des méthodes qui permettent aux humains de comprendre et de retracer les chemins décisionnels des systèmes d’IA. L’IA explicable vise à instaurer la confiance et à garantir la responsabilité (IBM, o.J.).
Ingénierie de prompts
L’ingénierie de prompts (prompt engineering) consiste à concevoir et affiner des consignes d’entrée afin de piloter de façon ciblée les modèles d’IA (en particulier les grands modèles de langage). Les principes clés sont la clarté, le contexte et l’ajustement itératif (GeeksforGeeks, 2025)
Le Chat
Le Chat est l’assistant IA multilingue de l’entreprise parisienne Mistral AI. Il se distingue par sa grande vitesse, son attention à la protection des données et sa polyvalence dans le domaine de l’IA générative. Le Chat peut traiter des textes, des documents et des images, fonctionne de manière économe en données et est optimisé aussi bien pour un usage personnel que professionnel (Datacamp, 2025).
Dans le contexte scolaire, où des données personnelles et des informations sensibles sont souvent traitées, l’utilisation d’options d’IA telles que Le Chat exige une prudence particulière en matière de protection des données.
LLaMA
LLaMA regroupe une série de modèles de langage IA de l’entreprise Meta. Ces modèles peuvent comprendre, résumer et générer des textes. Ils sont proposés en open source, ce qui permet de les intégrer à d’autres programmes ou de les adapter à des fins éducatives. La version la plus récente (Llama 4) est multimodale et peut traiter des textes et des images (LLAMA, o.J.).
Dans le contexte scolaire, où des données personnelles et des informations sensibles sont souvent traitées, l’utilisation d’options d’IA telles que LLaMA exige une prudence particulière en matière de protection des données.
Méchanisme d’attention
Le mécanisme d’attention (attention) est au cœur des modèles d’IA modernes comme ChatGPT. Il permet à un modèle, lors du traitement d’un texte, de se concentrer sur les mots importants et de mettre de côté les informations moins pertinentes — un peu comme nous le faisons en lisant. Cela aide à comprendre de longs contextes tout en effectuant de nombreux calculs en parallèle (Bergmann & Stryker, oJ).
Métapprentissage
Le métapprentissage (« apprendre à apprendre ») est un sous-domaine de l’apprentissage automatique. Les modèles sont entraînés de manière à pouvoir réussir de nouvelles tâches avec très peu d’entraînement supplémentaire ; ils généralisent à partir de tâches antérieures et s’adaptent rapidement à de nouvelles situations (DataCamp, 2025).
Midjourney
Midjourney est un générateur d’images par IA de l’entreprise Midjourney, Inc., un institut de recherche indépendant. Les images sont produites à partir de prompts textuels ou d’images. L’utilisation requiert un accès au canal Discord, et les abonnements mensuels commencent à 10 USD (Midjourney, o.J.).
Midjourney est un générateur d’images par IA de l’entreprise Midjourney, Inc., un institut de recherche indépendant. Les images sont produites à partir de prompts textuels ou d’images.
Modèles Transformers
Les modèles Transformers sont une architecture moderne de réseaux neuronaux, particulièrement performante pour traiter la langue et les textes. Leur principe central est le mécanisme d’attention (attention). Le modèle apprend quels mots (ou éléments d’image) sont importants dans le contexte et les prend en compte simultanément. Cela rend les Transformers rapides, puissants et polyvalents. Ils constituent la base de grands modèles de langage comme GPT (Generative Pre-trained Transformer), capables d’écrire des textes, de répondre à des questions ou de résumer des contenus. Ils sont aujourd’hui aussi utilisés avec succès dans d’autres domaines comme le traitement d’images ou la reconnaissance de la parole (Stryker & Bergmann, o.J.).
Monde VUCA
VUCA signifie « Volatility, Uncertainty, Complexity, Ambiguity » (volatilité, incertitude, complexité, ambiguïté) et décrit un monde marqué par des changements rapides, de l’incertitude, de la complexité et de la multiplicité des interprétations. Dans le domaine de l’éducation, VUCA sert de cadre pour préparer les apprenant·es à des évolutions dynamiques, technologiques et sociétales (Bennett & Lemoine, 2014).
Prompts
Un prompt est une entrée textuelle ou une instruction adressée à un système d’IA, qui détermine le comportement de la sortie. Des prompts bien formulés produisent des réponses plus claires et plus pertinentes (GeeksforGees, 2025).
Reconnaissance vocale vers texte
La reconnaissance vocale vers texte (speech-to-text, STT) est une technologie qui convertit la parole en texte écrit. Elle s’appuie sur des modèles acoustiques, la reconnaissance de la parole et des modèles de langage pour transcrire automatiquement le langage humain (Hu & Downie, o.J.).
Réseaux de neurones à propagation avant
Un réseau à propagation avant (feedforward network) est un réseau neuronal dans lequel l’information ne circule que dans une seule direction, c’est-à-dire de l’entrée vers la sortie. Il n’y a pas de rétroaction ni de boucles (GeeksforGeeks, 2025).
Réseaux de neurones convolutifs
Un réseau de neurones convolutif (angl. Convolutional Neural Network, CNN) est un type particulier de réseau neuronal, surtout utilisé pour la reconnaissance d’images. Il fonctionne d’une manière comparable à la vision humaine. Le réseau analyse uniquement de petites portions d’image à la fois et en extrait des motifs. Cela lui permet d’identifier des objets sur une image (IBM, o.J.).
Réseaux de neurones récurrents
Un réseau de neurones récurrent (angl. recurrent neural network, RNN) peut, contrairement à un réseau à propagation avant, « se souvenir » d’informations antérieures. Cela tient au fait que les signaux peuvent circuler non seulement vers l’avant, mais aussi revenir en arrière. Le réseau peut ainsi détecter des dépendances dans le temps (p. ex. en langage ou en musique). Il retient ce qui s’est passé auparavant et utilise ce savoir pour prendre ses décisions suivantes (Stryker, o.J.).
Réseaux neuronaux
Les réseaux neuronaux sont des modèles du apprentissage automatique inspirés du fonctionnement du cerveau humain. Ils se composent de nombreux « neurones » interconnectés, capables de traiter des données, de repérer des motifs et d’en déduire des décisions. Par de nombreuses itérations, ils apprennent de manière autonome à améliorer leurs résultats, par exemple pour reconnaître des images, traduire des langues ou piloter des voitures autonomes. Ils constituent ainsi l’un des fondements majeurs de l’intelligence artificielle (GeeksforGeeks, 2025).
Sous-ajustement
Le sous-ajustement (underfitting) décrit une situation où un modèle est trop simple pour saisir les motifs présents dans les données. Il produit de mauvais résultats aussi bien sur les données d’entraînement que sur les données de test (GeeksforGeeks, 2025).
Surapprentissage
Le surapprentissage (overfitting) se produit lorsqu’un modèle apprend trop précisément les données d’entraînement. Il obtient d’excellents résultats sur ces données, mais généralise mal à de nouvelles données (GeeksforGeeks, 2025).
Synthèse vocale
La synthèse vocale (text-to-speech, TTS) transforme un texte écrit en parole. Les systèmes TTS modernes utilisent des réseaux neuronaux pour produire des voix naturelles ainsi que des intonations et accentuations réalistes (Hu & Downie, o.J.).
Système autonome
Les systèmes autonomes sont des systèmes techniques capables d’agir et de prendre des décisions de manière indépendante, sans qu’un humain doive intervenir en permanence. Ils peuvent apprendre, résoudre des problèmes et réagir à des situations inattendues. Les systèmes autonomes ne se limitent pas aux robots : ils incluent aussi des machines, des appareils ou des logiciels intelligents, utilisés dans différents domaines tels que : les transports (voitures ou bus autonomes), le foyer (systèmes d’assistance intelligents pour soutenir les personnes), le travail et la production (robots autonomes collaborant avec des humains ou prenant en charge des tâches dangereuses) (Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, o.J.).
Système tutoriel intelligent
Les systèmes tutoriels intelligents (Intelligent Tutoring Systems, ITS) sont des environnements d’apprentissage informatisés qui, grâce à des méthodes d’IA, fournissent un feedback individualisé et un accompagnement intelligent. L’objectif est de personnaliser l’apprentissage et de soutenir les apprenant·es via une aide adaptative (Vodafon Stiftung, 2024).
Systèmes de recommandation
Un système de recommandation (angl. recommender system) est une forme d’intelligence artificielle (IA) qui aide les personnes à trouver ce qui leur convient parmi un grand nombre de possibilités. Exemples : Netflix propose des films susceptibles de nous plaire ; Spotify recommande de nouvelles musiques adaptées à nos goûts ; des boutiques en ligne comme Amazon affichent des produits du type « Cela pourrait aussi vous plaire ». Le système collecte des données sur le comportement des utilisateur·rices. Il repère ce qu’iels ont cliqué, acheté ou évalué positivement. Ces informations servent à identifier des motifs et à produire des prédictions (Nvidia, o.J.).
Tokenisation
La tokenisation désigne la découpe d’un texte en unités plus petites (« tokens »), par exemple des mots, des syllabes ou des sous-mots. Cette représentation est une condition préalable à de nombreux modèles NLP (Holdsworth & Kosinski, o.J.).
Traitement automatique du langage naturel
Le traitement automatique du langage naturel (angl. natural language processing, abrégé NLP) est un sous-domaine de l’intelligence artificielle qui permet aux ordinateurs de comprendre, traiter et produire du langage humain. Il est utilisé, par exemple, pour la traduction, les assistants vocaux, les chatbots, les résumés de textes ou les filtres anti-spam. Il englobe différentes techniques comme la reconnaissance vocale (speech-to-text), la synthèse vocale (text-to-speech) ou l’extraction automatique d’informations. Avec l’augmentation du volume de textes et de paroles provenant des réseaux sociaux, des sites web et des services numériques, le NLP est une technologie clé pour la communication et l’automatisation (Stryker & Holdsworth, o.J.).
Translation
Le terme translation est surtout utilisé en médecine et désigne les activités interdisciplinaires visant à mettre rapidement en pratique les résultats de la recherche. Il trouve son origine dans le latin translatio, dérivé de transferre = transférer, transporter. Chez BeLEARN, nous entendons par « translation » le transfert rapide des connaissances scientifiques issues de la recherche en éducation vers la pratique.
Validation
Dans la validation de modèles, on utilise des données d’entraînement et de test pour vérifier les performances d’un modèle. Des techniques comme la validation croisée aident à estimer la capacité de généralisation d’un modèle (focalx, 2025).
Vision industrielle
La vision industrielle (machine vision) désigne l’utilisation de caméras et de systèmes de traitement d’images pour automatiser, dans des applications industrielles ou techniques, des tâches visuelles telles que le contrôle qualité ou la navigation de robots (GeeksforGeeks, 2025).
Vision par ordinateur
La vision par ordinateur (computer vision) est un sous-domaine de l’intelligence artificielle (IA) qui permet aux ordinateurs de « comprendre » des images et des vidéos. Grâce à des méthodes comme le machine learning et les réseaux neuronaux, les systèmes peuvent reconnaître des objets, identifier des visages ou classer des images. On peut ainsi extraire des informations à partir de données visuelles, utilisées directement pour des décisions ou des recommandations (IBM, o.J.).