Orientation en matière d’IA

Une brochure d'information destinée aux enseignant·e·s du 1er degré du secondaire dans le canton de Berne – rédigée par BeLEARN sur mandat de l'Office de l'école obligatoire et du conseil (OECO) du canton de Berne.

À propos de l'Orientation en matière d’IA

Chère lectrice, cher lecteur... Bienvenue dans le monde VUCA ! Cet acronyme décrit très bien la situation dans laquelle nous nous trouvons dans le monde d'aujourd'hui. VUCA signifie Volatility (inconstance), Uncertainty (incertitude), Complexity (complexité) et Ambiguity (ambiguïté). Nous vivons une période de changements rapides et constants, qui ne s'arrête pas non plus au système éducatif. La numérisation est l’un des principaux facteurs de cette évolution depuis quelques années. En particulier, les évolutions récentes dans le domaine de l’intelligence artificielle (IA) posent de nouveaux défis aux enseignant·e·s et aux directeur·rice·s d’école.

Sur mandat du canton de Berne, le projet BeLEARN a pour but de vous aider à vous orienter dans la jungle de l’IA à l'aide de cette approche. En réponse aux questions et aux besoins de la pratique éducative, nous avons créé ce site dynamique pour vous, qui vise à filtrer et rassembler dans la mesure du possible l'énorme quantité de connaissances et d'informations sur Internet sur le thème de l'IA. Les contenus de ce site sont vérifiés et révisés deux à trois fois par an à l'aide d'un comité composé d'experts issus de la numérisation de l'information et de l'éducation. Parallèlement à l’Orientation en matière d’IA, une FAQ (« Frequently asked questions ») est en cours d’élaboration, qui abordera les questions les plus brûlantes des enseignant·e·s et des directeur·rice·s d’école sur l’IA à l’école et dans l’enseignement.

 

Vous trouverez ici des réponses à des questions sur la technologie derrière l’IA et sur les aspects pédagogiques, juridiques et éthiques de l’IA dans le cadre scolaire. L’Orientation en matière d’IA contient également des propositions concrètes sur l’utilisation judicieuse de l’IA générative (par exemple ChatGPT) dans l’enseignement. Les termes les plus importants en lien avec l’IA sont soulignés et expliqué dans le glossaire. Bien qu’il n’existe actuellement aucune prescription cantonale contraignante concernant l’utilisation de l’IA à l’école, nous tenons à souligner que le plan d'études 21 constitue la base juridique de l’enseignement à l’école primaire et qu’il sert donc de référence pour les directeur·rice·s d’école et les enseignant·e·s en matière d’IA.

 

Le thème de l'IA pose des exigences différentes selon les niveaux scolaires. Les enseignant·e·s se trouvent également à des stades différents de leur réflexion sur ce thème. C'est pourquoi nous nous efforçons de proposer une orientation en matière d'IA qui soit utile à tous. Nous accompagnons volontiers les débutants en IA dans le cadre d'un atelier d'introduction directement chez vous à l'école ou chez nous au Hub BeLEARN. Les personnes expérimentées dans l’IA et les autres personnes intéressées trouveront dans notre recueil de liens des références utiles pour approfondir la discussion. On vous y propose également une variété d'outils d'IA – cliquez et essayez ! (veuillez faire défiler la page jusqu'en bas)

 

Avez-vous des questions auxquelles vous ne trouvez pas de réponse dans l'Orientation en matière d’IA ? Ou voulez-vous nous donner un retour général sur l'Orientation en matière d’IA ? L'Orientation en matière d’IA est destinée à vous servir dans votre vie professionnelle, c'est pourquoi nous sommes très heureux d'intégrer vos commentaires dans notre prochaine révision de l'Orientation en matière d’IA. Si vous êtes intéressé par un atelier d'IA, vous pouvez également nous contacter via le formulaire de contact (veuillez faire défiler la page jusqu'en bas).

 

BeLEARN vous souhaite beaucoup de plaisir en plongeant dans le monde fascinant de l'intelligence artificielle ! 

Exemples concrets d’utilisation

Vous trouverez ici des idées sur l'utilisation de l'IA générative dans l'enseignement, avec des exemples pour vous et vos élèves. Si vous recherchez d'autres exemples, nous vous recommandons également de jeter un œil sur les «cartes d'idées IA dans les cours de la PHBern» (lien vérifié en dernier le 16.10.2024). Les exemples que nous avons générés sont les résultats de véritables dialogues avec le chatbot basé sur l'IA ChatGPT et le générateur d'images d'IA DALL·E 3 sur les sujets abordés dans le plan d'études 21. Peut-être pouvons-nous nous servir de nos exemples pour vous inspirer à explorer d'autres applications de l'IA générative en classe !

Exemples par les élèves
Exemples d’utilisation de l’IA générative par les élèves
Aller aux exemples
Exemples par les enseignant·e·s
Exemples d’utilisation de l’IA générative par les enseignant·e·s
Aller aux exemples
Diapositive précédente
Diapositive suivante

FAQ sur la situation juridique de l’IA à l’école

De nombreux enseignant·e·s ont des questions juridiques sur l’IA à l’école. Nous souhaitons à ce propos attirer votre attention sur le «Dictionnaire de la protection des données de l'Office de l’école obligatoire et du conseil (OECO) du canton de Berne» (lien vérifié en dernier le 16.10.2024). Le Dictionnaire de la protection des données fournit des réponses aux questions les plus fréquemment posées sur les pratiques professionnelles des enseignant·e·s, des directeur·rice·s d’école, des administrations scolaires, des autorités scolaires, des spécialistes et des parents. Vous trouverez également sur le site Internet une FAQ juridiquement fondée contenant les principales questions et réponses.

Même si, contrairement à l’Union européenne, la Suisse n’a pas (encore) légiféré sur l’intelligence artificielle, il n’y a pas de vide juridique. Au contraire, comme pour toutes les autres technologies, le droit suisse en vigueur est tout à fait applicable. L’utilisation des applications d’IA touche généralement plusieurs domaines du droit :

 

  • Droit à la protection des données (traitement des données personnelles des élèves)
  • Droit d'auteur (traitement de documents pédagogiques protégés par le droit d'auteur)
  • Droit des contrats (relation entre les fournisseurs d’applications d’IA et l’école, y compris responsabilité civile).

 

En outre, le droit cantonal (scolaire ou administratif) peut fixer des conditions à l’utilisation de systèmes informatiques ou à l’externalisation de prestations informatiques, conditions qu’il convient de respecter lors de l’utilisation d’applications d’IA.

Si les applications d’IA sont utilisées non seulement pour concevoir l’enseignement, mais aussi, par exemple, pour rechercher des employés ou préparer des décisions, il convient également de tenir compte des principes d’égalité de traitement et de non-discrimination: La manière dont l’application d’IA rend sa décision doit être compréhensible et documentée afin de garantir l’égalité de traitement entre les différentes personnes. En outre, un contrôle humain des résultats doit être possible.

Outre l’exigence fondamentale selon laquelle il faut toujours vérifier la véracité des énoncés générés par l’IA, il faut avant tout respecter le droit d’auteur lors de leur utilisation :

 

  • Droits d'auteur de tiers : L'utilisation de contenus générés par l'IA peut porter atteinte aux droits d'auteur de tiers. Il est essentiel de savoir si et dans quelle mesure les œuvres protégées par les droits d’auteur préexistants sont reconnaissables dans le contenu généré par l’IA. Pour le détecter, il faut être en mesure de vérifier les résultats générés par l’IA. En principe, il est également nécessaire de disposer d’une vue d’ensemble des sources utilisées par l’application d’IA. Si cela n’est pas possible, l’utilisation de l’application d’IA ne peut être utilisée que pour l’enseignement, mais dans le cadre de travaux scientifiques, on risque de violer les droits d’auteur.
  • Droits d'auteur de l'IA elle-même ou de ses utilisateurs : Les résultats générés par les applications d’IA ne sont pas protégés par le droit d’auteur en l’absence de qualification en tant que «création intellectuelle». Par conséquent, l‘utilisateur d’une application d’IA ne peut pas non plus acquérir de droits d’auteur sur la production de l’IA.

L’introduction d’informations dans les applications d’IA doit tenir compte de différentes obligations légales. Les utilisateurs individuels sont toujours responsables de leur respect :

 

  • Protection des données : Si le matériel contient des données personnelles (c'est-à-dire des données concernant une personne identifiée ou identifiable), il convient de tenir compte de la législation sur la protection des données. Les données personnelles ainsi que les informations couvertes par des secrets commerciaux ou administratifs ne peuvent en principe pas être saisies dans des applications d’IA commerciales utilisées gratuitement, car leurs fournisseurs utilisent régulièrement les données saisies à leurs propres fins. Ceci n'est pas autorisé pour les données correspondantes. Au contraire, l’utilisation de telles applications d’IA implique l’anonymisation des données à caractère personnel et la suppression des données confidentielles.
  • Droits d'auteur : Lors de la saisie de matériel protégé par le droit d’auteur dans des applications d’IA, les autorisations correspondantes (licence ou accord des auteurs) doivent être disponibles.

Il n’existe actuellement aucune obligation légale de déclarer l’utilisation des applications d’IA. Une exception existe lorsqu’une décision est fondée exclusivement sur un traitement automatisé (les « décisions individuelles automatisées »), comme par exemple l’admission et l’affectation de candidats aux universités, entièrement pilotées par algorithme. L’utilisation d’applications d’IA génératives qui produisent du contenu sans empiéter sur les droits et les obligations des personnes ne génère pas de décisions individuelles automatisées.

 

Des efforts politiques sont en cours pour introduire une obligation de déclaration pour les applications de l’IA et, dans le contexte de la recherche, il est parfois recommandé d’identifier l’utilisation d’outils de nature générique. Mais il ne s'agit à l'heure actuelle que de recommandations et non d'obligations juridiques « dures ». Important : les règles des différentes universités s'appliquent.

D’un point de vue juridique, il n’existe pas actuellement de définition uniforme de l’intelligence artificielle. Alors que le droit en suisse n’a pas encore introduit ce terme, l’Union européenne, par le biais de son décret sur l’IA, s’est efforcée de définir ce que l’on appelle les « systèmes d’IA ». Il s’ensuit que les systèmes d’IA doivent être entendus comme des systèmes basés sur des machines, fonctionnant avec un certain degré d’autonomie, démontrant une capacité d’adaptation après leur utilisation et de produire des résultats tels que des prévisions, des recommandations ou des décisions (article 3, point 1, du décret sur l’IA). Même si le décret sur l’IA (similaire au RGPD) s’applique principalement à l’Union européenne, il faut s’attendre à ce qu’une éventuelle future législation suisse s’en inspire au moins pour la compréhension conceptuelle.

Glossaire

Le glossaire fournit des définitions et des explications des termes utilisés dans l’Orientation en matière d’IA, sans entrer dans les détails, et qui sont pertinents pour la compréhension de l’IA. Tout comme le reste du contenu de l’Orientation en matière d’IA, le glossaire est régulièrement revu et élargi.

Les compétences en matière de l’IA (en anglais, « AI Literacy ») ne se limitent pas à la capacité d’utiliser différents systèmes d’IA. Les apprenant·e·s devraient également comprendre les concepts et les aspects éthiques de l’IA afin que celle-ci puisse être utilisée de manière responsable (Ng, Leung, Chu, & Qiao, 2021).

Le terme algorithme décrit les instructions pas à pas pour résoudre un problème. Les algorithmes sont utilisés en informatique pour la programmation et le développement de logiciels. Le développement et l'amélioration des algorithmes peuvent améliorer l'efficacité et la rapidité d'un programme (Hessisches Kultusministerium, 2023).

Contrairement à l'apprentissage profond (Deep Learning), l'apprentissage automatique nécessite l'intervention humaine. Les données pertinentes sont introduites dans des modèles d’apprentissage automatique, tandis que les algorithmes humains régulent le traitement des données. Les algorithmes recherchent des modèles et des règles dans les ensembles de données et en tirent des enseignements qui peuvent ensuite être généralisés et utilisés pour analyser d'autres ensembles de données (Ronsdorf, 2020a).

L'IA doit beaucoup de progrès à l'apprentissage profond. L'apprentissage profond est une méthode de traitement de l'information et une partie de l'apprentissage automatique (ML). L'apprentissage profond utilise des réseaux neuronaux artificiels pour analyser de grands ensembles de données. Voici ce qui est étonnant : Les modèles d'apprentissage profond peuvent apprendre par eux-mêmes. Cela signifie qu'aucune intervention humaine n'est nécessaire dans le processus d'apprentissage (Ronsdorf, 2020b).

Le terme « chatbot » se compose des deux termes « chat » et « robot ». Dans le langage courant, on ne parle souvent que de « bots ». Les « chatbots » sont des systèmes de dialogue basés sur du texte qui génèrent des réponses aux questions les plus pertinentes possibles à partir de mots clés identifiés. De tels chatbots sont aujourd'hui utilisés sur de nombreux sites Web, par exemple pour conseiller les clients à tout moment de la journée. Les chatbots peuvent être reliés à des systèmes d'IA, ce qui peut créer une communication interpersonnelle trompeuse (Hessisches Kultusministerium, 2023).

Le terme de « cybergrooming » décrit le lent rapprochement des adultes avec les enfants et les adolescents par le biais d'Internet ou des médias sociaux. « Grooming » signifie « broder » ou « soigner », et signifie dans ce contexte que les adultes se faufilent sur la confiance des enfants ou des adolescents pour les forcer à se livrer à des activités sexuelles. Les auteur·rice·s suivent souvent un schéma similaire : Ils·elles créent un climat de confiance à l'égard des victimes et leur inculquent un sentiment de dépendance, qu'ils manipulent et contrôlent ensuite (NDR Medienkompetenz-Portal einfach.medien, s.d.). Il est urgent de sensibiliser les enseignant·e·s et les parents à ce danger afin qu'ils puissent protéger les enfants et les adolescents. Pour plus d'informations sur les mesures contre le cybergrooming, veuillez consulter le « Portail d'éducation aux médias » de NDR (lien vérifié en dernier le 16.10.2024). La police cantonale bernoise informe également sur son « site web » (lien vérifié en dernier le 16.10.2024) sur le harcèlement en ligne des mineurs.

Par cyberharcèlement, nous entendons le harcèlement, la diffamation ou la dénonciation d'une personne en utilisant des médias numériques. Un exemple en est la diffusion de textes, d'images ou de films qui diffament ou humilient une personne. Bien que les adultes soient également touchés, les enfants et les adolescents sont beaucoup plus souvent victimes de cyberharcèlement (Bundesamt für Cybersicherheit BACS, 2023). Pour plus d’informations sur le cyberharcèlement et les mesures prises pour le combattre, veuillez consulter le «site Internet de l’Office fédéral de la cybersécurité OFCS» (lien vérifié en dernier le 16.10.2024).

Les deepfakes ou deep fakes sont des images ou des vidéos créées à l'aide de l'IA. Les images et les vidéos semblent souvent authentiques, mais ne le sont pas. Un exemple de deepfakes est un visage qui est transmis à un corps étranger pour simuler une personne effectuant des actes qui n'ont jamais eu lieu de cette façon. Les deepfakes ont souvent pour cible la manipulation, la propagande ou le discrédit. Les deepfakes peuvent contribuer à l'émergence de fausses nouvelles ou Fake News (Bendel, 2019). Un autre exemple courant d'abus des deepfakes est la production illégale de pornographie falsifiée.

Traduits littéralement, les fake news sont des « fausses nouvelles », c'est-à-dire des informations qui prennent la forme de textes, de vidéos ou de photos qui ne sont pas véridiques. Les informations erronées peuvent être bourrées d'affirmations non prouvées ou peuvent porter sur des événements ou des actions qui n'ont pas eu lieu. Souvent, ils sont visuellement indiscernables des messages authentiques (vérifiés), mais se distinguent par des titres accrocheurs ou par l'absence d'informations sur la source ou l'auteur. En règle générale, les fausses nouvelles sont diffusées sur les médias sociaux ou par d'autres canaux électroniques (Franz, 2024).

Lorsque les chatbots pilotés par l’IA hallucinent, ils génèrent des informations apparemment précises et bien étayées, mais sans fondement réel. Les chatbots n'étant pas conçus pour ne fournir aucune réponse à une entrée, ils ont tendance à combiner des informations existantes de manière illogique (Hessisches Kultusministerium, 2023).

Les Large Language Models (LLM) sont en français de « grands modèles linguistiques ». Ils sont conçus non seulement pour comprendre le langage humain, mais aussi pour le générer. Les Large Language Models analysent des textes, génèrent des réponses cohérentes et peuvent même effectuer des tâches liées au langage. Les modèles linguistiques d'IA basés sur un LLM peuvent par exemple être utilisés dans l'assistance à la clientèle sous forme de chatbots automatisés. Les LLM sont également utilisés comme soutien dans la traduction linguistique ​(Kelbert, Siebert & Jöckel, 2023).

Les Large Language Models (LLM) sont en français de « grands modèles linguistiques ». Ils sont conçus non seulement pour comprendre le langage humain, mais aussi pour le générer. Les Large Language Models analysent des textes, génèrent des réponses cohérentes et peuvent même effectuer des tâches liées au langage. Les modèles linguistiques d'IA basés sur un LLM peuvent par exemple être utilisés dans l'assistance à la clientèle sous forme de chatbots automatisés. Les LLM sont également utilisés comme soutien dans la traduction linguistique (Kelbert, Siebert & Jöckel, 2023).

Les logiciels désignent toutes les parties non physiques d'ordinateurs, de réseaux informatiques ou de périphériques mobiles. Il s'agit notamment de programmes et d'applications (tels qu'un système d'exploitation) qui rendent l'appareil utilisable par l'utilisateur·rice (IT-SERVICE.NETWORK, s.d.).

VUCA est synonyme de Volatility (inconstance), Uncertainty (incertitude), Complexity (complexité) et Ambiguity (ambiguïté). L'idée d'un monde VUCA est apparue au début des années 1990 dans l'armée des États-Unis d'Amérique pour décrire la période incertaine qui a suivi la fin de la guerre froide. Mais c'est surtout dans le secteur économique que l'acronyme s'est imposé depuis le tournant du millénaire, avec l'apparition apparente d'une « nouvelle normalité » caractérisée par le chaos et des changements tumultueux (Lawrence, 2013).

Inspirés par les réseaux de neurones biologiques présents dans le cerveau humain, les réseaux neuronaux artificiels fonctionnent également de la même manière. Les réseaux neuronaux artificiels reconnaissent des modèles, recherchent des solutions appropriées et tirent des conclusions des considérations précédentes. Le cerveau humain et les réseaux neuronaux artificiels traitent tous deux des données, mais ces derniers le font à une vitesse impossible pour les humains. Cela les rend plus rapides et plus efficaces (Ronsdorf, 2020b).

Liens supplémentaires

Formulaire de contact