Orientation en matière d’IA

Une brochure d'information destinée aux enseignant·e·s du 1er degré du secondaire dans le canton de Berne – rédigée par BeLEARN sur mandat de l'Office de l'école obligatoire et du conseil (OECO) du canton de Berne.

À propos de l'Orientation en matière d’IA

Chère lectrice, cher lecteur... Bienvenue dans le monde VUCA! Cet acronyme décrit très bien la situation dans laquelle nous nous trouvons dans le monde d'aujourd'hui. VUCA signifie Volatility (inconstance), Uncertainty (incertitude), Complexity (complexité) et Ambiguity (ambiguïté). Nous vivons une période de changements rapides et constants, qui ne s'arrête pas non plus au système éducatif. La numérisation est l’un des principaux facteurs de cette évolution depuis quelques années. En particulier, les évolutions récentes dans le domaine de l’intelligence artificielle (IA) posent de nouveaux défis aux enseignant·e·s et aux directeur·rice·s d’école.

Sur mandat du canton de Berne, le projet BeLEARN a pour but de vous aider à vous orienter dans la jungle de l’IA à l'aide de cette approche. En réponse aux questions et aux besoins de la pratique éducative, nous avons créé ce site dynamique pour vous, qui vise à rassembler dans la mesure du possible l'énorme quantité de connaissances et d'informations sur Internet sur le thème de l'IA. Les contenus de ce site sont vérifiés et révisés deux à trois fois par an à l'aide d'un comité composé d'experts issus de la numérisation de l'information et de l'éducation. Parallèlement à l’Orientation en matière d’IA, une FAQ («Frequently asked questions») est en cours d’élaboration, qui abordera les questions les plus brûlantes des enseignant·e·s et des directeur·rice·s d’école sur l’IA à l’école et dans l’enseignement.

 

Vous trouverez ici des réponses à des questions sur la technologie derrière l’IA et sur les aspects pédagogiques, juridiques et éthiques de l’IA dans le cadre scolaire. L’Orientation en matière d’IA contient également des propositions concrètes sur l’utilisation judicieuse de l’IA générative (par exemple ChatGPT) dans l’enseignement. Des explications des termes les plus importants en lien avec l’IA, soulignés chacun par l’Orientation en matière d’IA, sont fournies plus loin dans le glossaire. Bien qu’il n’existe actuellement aucune prescription cantonale contraignante concernant l’utilisation de l’IA à l’école, nous tenons à souligner que le plan d'études 21 constitue la base juridique de l’enseignement à l’école primaire et qu’il sert donc de référence pour les directeur·rice·s d’école et les enseignant·e·s en matière d’IA.

 

Alors que les innovations technologiques rapides créent de nouvelles exigences pour les enseignant·e·s, nous nous efforçons de fournir une orientation en intelligence artificielle qui apporte une aide à tous. Nous accompagnons volontiers les débutants en IA dans le cadre d'un atelier d'introduction directement chez vous à l'école ou chez nous au Hub BeLEARN. Les personnes expérimentées dans l’IA et les autres personnes intéressées trouveront dans notre recueil de liens des références utiles pour approfondir la discussion. On vous y propose également une variété d'outils d'IA – cliquez et essayez!

 

Avez-vous des questions auxquelles vous ne trouvez pas de réponse dans l'Orientation en matière d’IA? Ou voulez-vous nous donner un retour général sur l'Orientation en matière d’IA? L'Orientation en matière d’IA est destinée à vous servir dans votre vie professionnelle, c'est pourquoi nous sommes très heureux d'intégrer vos commentaires dans notre prochaine révision de l'Orientation en matière d’IA. Si vous êtes intéressé par un atelier d'IA, vous pouvez également nous contacter via le formulaire de contact ci-dessous.

 

BeLEARN vous souhaite beaucoup de plaisir en plongeant dans la jungle de l'IA!

Exemples concrets d’utilisation

Hier finden Sie Ideen für den Einsatz von generativer KI im Unterricht – mit Beispielen für Sie und Ihre Schüler*innen. Falls Sie nach weiteren Beispielen suchen, empfehlen wir Ihnen auch einen Blick in die «Ideen-Karten KI im Unterricht der PHBern » (Link zuletzt geprüft am 17.07.2024) zu werfen. Die von uns generierten Beispiele sind Ergebnisse aus echten Dialogen mit dem KI-gestützten Chatbot ChatGPT und dem KI-Bildgenerator DALL·E 3 zu Themen, die im Rahmen des Lehrplans 21 behandelt werden. Vielleicht können wir Sie mit unseren Beispielen inspirieren, weitere Anwendungsmöglichkeiten für die generative KI im Unterricht zu entdecken!
Exemples par les élèves
Exemples d’utilisation de l’IA générative par les élèves
Aller aux exemples
Exemples par les enseignant·e·s
Exemples d’utilisation de l’IA générative par les enseignant·e·s
Aller aux exemples
Diapositive précédente
Diapositive suivante

FAQ sur la situation juridique de l’IA à l’école

Viele Lehrpersonen beschäftigen rechtliche Fragen zum Thema KI in der Schule. Wir möchten Sie diesbezüglich gern auf das «Dictionnaire de la protection des données de l'Office de l’école obligatoire et du conseil (OECO) du canton de Berne» (lien vérifié en dernier le 17.07.2024). Le Dictionnaire de la protection des données fournit des réponses aux questions les plus fréquemment posées sur les pratiques professionnelles des enseignant·e·s, des directeur·rice·s d’école, des administrations scolaires, des autorités scolaires, des spécialistes et des parents. Vous trouverez également sur le site Internet une FAQ juridiquement fondée contenant les principales questions et réponses.

Même si, contrairement à l’Union européenne, la Suisse n’a pas (encore) légiféré sur l’intelligence artificielle, il n’y a pas de vide juridique. Au contraire, comme pour toutes les autres technologies, le droit suisse en vigueur est tout à fait applicable. L’utilisation des applications d’IA touche généralement plusieurs domaines du droit:

 

  • Droit à la protection des données (traitement des données personnelles des élèves)
  • Droit d'auteur (traitement de documents pédagogiques protégés par le droit d'auteur)
  • Droit des contrats (relation entre les fournisseurs d’applications d’IA et l’école, y compris responsabilité civile).

 

En outre, le droit cantonal (scolaire ou administratif) peut fixer des conditions à l’utilisation de systèmes informatiques ou à l’externalisation de prestations informatiques, conditions qu’il convient de respecter lors de l’utilisation d’applications d’IA.

 

Si les applications d’IA sont utilisées non seulement pour concevoir l’enseignement, mais aussi, par exemple, pour rechercher des employés ou préparer des décisions, il convient également de tenir compte des principes d’égalité de traitement et de non-discrimination: La manière dont l’application d’IA rend sa décision doit être compréhensible et documentée afin de garantir l’égalité de traitement entre les différentes personnes. En outre, un contrôle humain des résultats doit être possible.

Outre l’exigence fondamentale selon laquelle il faut toujours vérifier la véracité des énoncés générés par l’IA, il faut avant tout respecter le droit d’auteur lors de leur utilisation:

 

  • Droits d'auteur de tiers: L'utilisation de contenus générés par l'IA peut porter atteinte aux droits d'auteur de tiers. Il est essentiel de savoir si et dans quelle mesure les œuvres protégées par les droits d’auteur préexistants sont reconnaissables dans le contenu généré par l’IA. Pour le détecter, il faut être en mesure de vérifier les résultats générés par l’IA. En principe, il est également nécessaire de disposer d’une vue d’ensemble des sources utilisées par l’application d’IA. Si cela n’est pas possible, l’utilisation de l’application d’IA ne peut être utilisée que pour l’enseignement, mais dans le cadre de travaux scientifiques, on risque de violer les droits d’auteur.
  • Droits d'auteur de l'IA elle-même ou de ses utilisateurs: Les résultats générés par les applications d’IA ne sont pas protégés par le droit d’auteur en l’absence de qualification en tant que «création intellectuelle». Par conséquent, l‘utilisateur d’une application d’IA ne peut pas non plus acquérir de droits d’auteur sur la production de l’IA.

L’introduction d’informations dans les applications d’IA doit tenir compte de différentes obligations légales. Les utilisateurs individuels sont toujours responsables de leur respect:

 

  • Protection des données: Si le matériel contient des données personnelles (c'est-à-dire des données concernant une personne identifiée ou identifiable), il convient de tenir compte de la législation sur la protection des données. Les données personnelles ainsi que les informations couvertes par des secrets commerciaux ou administratifs ne peuvent en principe pas être saisies dans des applications d’IA commerciales utilisées gratuitement, car leurs fournisseurs utilisent régulièrement les données saisies à leurs propres fins. Ceci n'est pas autorisé pour les données correspondantes. Au contraire, l’utilisation de telles applications d’IA implique l’anonymisation des données à caractère personnel et la suppression des données confidentielles.
  • Droits d'auteur: Lors de la saisie de matériel protégé par le droit d’auteur dans des applications d’IA, les autorisations correspondantes (licence ou accord des auteurs) doivent être disponibles.

Il n’existe actuellement aucune obligation légale de déclarer l’utilisation des applications d’IA. Une exception existe lorsqu’une décision est fondée exclusivement sur un traitement automatisé (les «décisions individuelles automatisées»), comme par exemple l’admission et l’affectation de candidats aux universités, entièrement pilotées par algorithme. L’utilisation d’applications d’IA génératives qui produisent du contenu sans empiéter sur les droits et les obligations des personnes ne génère pas de décisions individuelles automatisées.

 

Des efforts politiques sont en cours pour introduire une obligation de déclaration pour les applications de l’IA et, dans le contexte de la recherche, il est parfois recommandé d’identifier l’utilisation d’outils de nature générique. Mais il ne s'agit à l'heure actuelle que de recommandations et non d'obligations juridiques «dures».

D’un point de vue juridique, il n’existe pas actuellement de définition uniforme de l’intelligence artificielle. Alors que le droit en suisse n’a pas encore introduit ce terme, l’Union européenne, par le biais de son décret sur l’IA, s’est efforcée de définir ce que l’on appelle les «systèmes d’IA». Il s’ensuit que les systèmes d’IA doivent être entendus comme des systèmes basés sur des machines, fonctionnant avec un certain degré d’autonomie, démontrant une capacité d’adaptation après leur utilisation et de produire des résultats tels que des prévisions, des recommandations ou des décisions (article 3, point 1, du décret sur l’IA). Même si le décret sur l’IA (similaire au RGPD) s’applique principalement à l’Union européenne, il faut s’attendre à ce qu’une éventuelle future législation suisse s’en inspire au moins pour la compréhension conceptuelle.

Glossaire

Le glossaire fournit des définitions et des explications des termes utilisés dans l’Orientation en matière d’IA, sans entrer dans les détails, et qui sont pertinents pour la compréhension de l’IA. Tout comme le reste du contenu de l’Orientation en matière d’IA, le glossaire est régulièrement revu et élargi.

Les compétence en matière de l’IA (en anglais, «AI Literacy») ne se limitent pas à la capacité d’utiliser différents systèmes d’IA. Les apprenant·e·s devraient également comprendre les concepts et les aspects éthiques de l’IA afin que celle-ci puisse être utilisée de manière responsable (Ng, Leung, Chu, & Qiao, 2021).

Le terme algorithme décrit les instructions pas à pas pour résoudre un problème. Les algorithmes sont utilisés en informatique pour la programmation et le développement de logiciels. Le développement et l'amélioration des algorithmes peuvent améliorer l'efficacité et la rapidité d'un programme (Hessisches Kultusministerium, 2023).

Le terme «chatbot» se compose des deux termes «chat» et «robot». Dans le langage courant, on ne parle souvent que de «bots». Les «chatbots» sont des systèmes de dialogue basés sur du texte qui génèrent des réponses aux questions les plus pertinentes possibles à partir de mots clés identifiés. De tels chatbots sont aujourd'hui utilisés sur de nombreux sites Web, par exemple pour conseiller les clients à tout moment de la journée. Les chatbots peuvent être reliés à des systèmes d'IA, ce qui peut créer une communication interpersonnelle trompeuse (Hessisches Kultusministerium, 2023).

Le terme de «cybergrooming» décrit le lent rapprochement des adultes avec les enfants et les adolescents par le biais d'Internet ou des médias sociaux. «Grooming» signifie «broder» ou «soigner», et signifie dans ce contexte que les adultes se faufilent sur la confiance des enfants ou des adolescents pour les forcer à se livrer à des activités sexuelles. Les auteur·rice·s suivent souvent un schéma similaire: Ils·elles créent un climat de confiance à l'égard des victimes et leur inculquent un sentiment de dépendance, qu'ils manipulent et contrôlent ensuite (Portail d'éducation aux médias einfach.medien). Il est urgent de sensibiliser les enseignant·e·s et les parents à ce danger afin qu'ils puissent protéger les enfants et les adolescents. Pour plus d'informations sur les mesures contre le cybergrooming, veuillez consulter le «Portail d'éducation aux médias» de NDR (lien vérifié en dernier le 17.07.2024).

Par cyberharcèlement, nous entendons le harcèlement, la diffamation ou la dénonciation d'une personne en utilisant des médias numériques. Un exemple en est la diffusion de textes, d'images ou de films qui diffament ou humilient une personne. Bien que les adultes soient également touchés, les enfants et les adolescents sont beaucoup plus souvent victimes de cyberharcèlement (Office fédéral de la cybersécurité, OFCS, 2023). Pour plus d’informations sur le cyberharcèlement et les mesures prises pour le combattre, veuillez consulter le «site Internet de l’Office fédéral de la cybersécurité OFCS» (lien vérifié en dernier lieu le 17.07.2024).

Les deepfakes ou deep fakes sont des images ou des vidéos créées à l'aide de l'IA. Les images et les vidéos semblent souvent authentiques, mais ne le sont pas. Un exemple de deepfakes est un visage qui est transmis à un corps étranger pour simuler une personne effectuant des actes qui n'ont jamais eu lieu de cette façon. Les deepfakes ont souvent pour cible la manipulation, la propagande ou le discrédit. Les deepfakes peuvent contribuer à l'émergence de fausses nouvelles ou Fake News (Bendel, 2019). Un autre exemple courant d'abus des deepfakes est la production illégale de pornographie falsifiée.

L'IA doit beaucoup de progrès à l'apprentissage profond. L'apprentissage profond est une méthode de traitement de l'information et une partie de l'apprentissage automatique (ML). L'apprentissage profond utilise des réseaux neuronaux artificiels pour analyser de grands ensembles de données. Voici ce qui est étonnant: Les modèles d'apprentissage profond peuvent apprendre par eux-mêmes. Cela signifie qu'aucune intervention humaine n'est nécessaire dans le processus d'apprentissage (Ronsdorf, Microsoft explique: Qu'est-ce que l'apprentissage profond? Définition & Fonctions du DL, 2020).

Traduits littéralement, les fake news sont des «fausses nouvelles», c'est-à-dire des informations qui prennent la forme de textes, de vidéos ou de photos qui ne sont pas véridiques. Les informations erronées peuvent être bourrées d'affirmations non prouvées ou peuvent porter sur des événements ou des actions qui n'ont pas eu lieu. Souvent, ils sont visuellement indiscernables des messages authentiques (vérifiés), mais se distinguent par des titres accrocheurs ou par l'absence d'informations sur la source ou l'auteur. En règle générale, les fausses nouvelles sont diffusées sur les médias sociaux ou par d'autres canaux électroniques (Franz, 2024).

Lorsque les chatbots pilotés par l’IA hallucinent, ils génèrent des informations apparemment précises et bien étayées, mais sans fondement réel. Les chatbots n'étant pas conçus pour ne fournir aucune réponse à une entrée, ils ont tendance à combiner des informations existantes de manière illogique (Hessisches Kultusministerium, 2023).

Les invites sont des entrées de texte saisies par un·e utilisateur·rice dans un système d'IA (par exemple, dans un chatbot d'IA tel que ChatGPT). La saisie de texte peut contenir une commande, une instruction ou une question et aboutit à un résultat correspondant généré par le système d’IA, en fonction du choix des mots, du niveau de détail et de la syntaxe (Hessisches Kultusministerium, 2023). Des conseils pour créer de bonnes invites ChatGPT sont maintenant disponibles via une simple recherche sur Google, dans les «Ideen-Karten «KI im Unterricht» [Cartes d'idées «IA dans l'enseignement»] de la PHBern» (lien vérifié en dernier le 17.07.2024) ou auprès d'autres fournisseurs tels que «Scribbr» (lien vérifié en dernier le 17.07.2024).

Les Large Language Models (LLM) ou en français «modèles de langage large» sont des modèles de machine learning qui peuvent comprendre et générer des textes en langage humain. Ils sont basés sur l'analyse de grands ensembles de données linguistiques. Ce sont donc des programmes d'ordinateur qui ont été nourris avec de nombreux exemples du langage humain, afin de pouvoir reconnaître et traiter ce même langage. Grâce à l'apprentissage profond, une forme d'apprentissage automatique (ML), les LLM apprennent à comprendre comment les signes, les mots et les phrases fonctionnent ensemble. Ainsi, les LLM peuvent être utilisés pour programmer des chatbots d'IA tels que ChatGPT (Cloudflare, non daté).

Les logiciels désignent toutes les parties non physiques d'ordinateurs, de réseaux informatiques ou de périphériques mobiles. Il s'agit notamment de programmes et d'applications (tels qu'un système d'exploitation) qui rendent l'appareil utilisable par l'utilisateur·rice (IT-SERVICE.NETWORK).

Contrairement à l'apprentissage profond, l'apprentissage automatique (ML) nécessite l'intervention humaine. Les données pertinentes sont introduites dans des modèles d’apprentissage automatique, tandis que les algorithmes humains régulent le traitement des données. Les algorithmes recherchent des modèles et des règles dans les ensembles de données et en tirent des enseignements qui peuvent ensuite être généralisés et utilisés pour analyser d'autres ensembles de données (Ronsdorf, 2020).

VUCA est synonyme de Volatility (inconstance), Uncertainty (incertitude), Complexity (complexité) et Ambiguity (ambiguïté). L'idée d'un monde VUCA est apparue au début des années 1990 dans l'armée des États-Unis d'Amérique pour décrire la période incertaine qui a suivi la fin de la guerre froide. Mais c'est surtout dans le secteur économique que l'acronyme s'est imposé depuis le tournant du millénaire, avec l'apparition apparente d'une «nouvelle normalité» caractérisée par le chaos et des changements tumultueux. (Lawrence, 2013).

Inspirés par les réseaux de neurones biologiques présents dans le cerveau humain, les réseaux neuronaux artificiels fonctionnent également de la même manière. Les réseaux neuronaux artificiels reconnaissent des modèles, recherchent des solutions appropriées et tirent des conclusions des considérations précédentes. Le cerveau humain et les réseaux neuronaux artificiels traitent tous deux des données, mais ces derniers le font à une vitesse impossible pour les humains. Cela les rend plus rapides et plus efficaces (Ronsdorf, Microsoft explique: Qu'est-ce que l'apprentissage profond? Définition & Fonctions du DL, 2020).

Liens supplémentaires

Formulaire de contact

  • Akgun, S., & Greenhow, C. (2021). Artifcial intelligence in education: Addressing ethical challenges in K-12 settings. AI and Ethics, S. 431-440. doi:https://doi.org/10.1007/s43681-021-00096-7
  • Ben Souissi, S. (20. Januar 2023). Generative AI – was ist das und was kann sie bereits? (M. Kurpicz-Briki, Interviewer)
  • Bendel, O. (25. Juli 2019). GABLER WIRTSCHAFTSLEXIKON. Von Deepfake: https://wirtschaftslexikon.gabler.de/definition/deepfake-120960/version-370918 abgerufen
  • Bildungs- und Kulturdirektion des Kantons Bern. (2016). Lehrplan 21 für die Volksschule des Kantons Bern. Bern.
  • Botturi, L., & Trütsch, J. (2023). digibasics. Abgerufen am 11. April 2024 von https://digibasics.ch/lerntechtrends/chatgpt-im-klassenzimmer/
  • Bundesamt für Cybersicherheit BACS. (29. Dezember 2023). BACS Startseite. Abgerufen am 16. Juli 2024 von Cybermobbing: https://www.ncsc.admin.ch/ncsc/de/home/cyberbedrohungen/cybermobbing.html
  • Burri, E. (10. Mai 2022). Den digitalen Wandel in der Schule kompetent gestalten. Abgerufen am 03. Mai 2024 von https://blog.phzh.ch/schulfuehrung/2022/05/10/den-digitalen-wandel-in-der-schule-kompetent-gestalten/
  • Cloudflare. (kein Datum). Glossaire. Abgerufen am 24. Juli 2024 von Cloudflare: https://www.cloudflare.com/de-de/learning/ai/what-is-large-language-model/
  • Dachverband Lehrerinnen und Lehrer Schweiz. (08. Mai 2024). lch. Abgerufen am 09. Juli 2024 von Künstliche Intelligenz in der Schule: https://www.lch.ch/aktuell/detail/kuenstliche-intelligenz-in-der-schule
  • derStandard. (11. Juni 2024). Künstliche Intelligenz: ChatGPT «halluziniert» nicht, sondern produziert «Bullshit». Abgerufen am 24. Juli 2024 von https://www.derstandard.at/story/3000000223808/chatgpt-halluziniert-nicht-sondern-produziert-bullshit
  • Döbeli Honegger, B. (09. Dezember 2021). DPCK statt TPCK – Beats Blog. Abgerufen am 3. Mai 2024 von https://blog.doebe.li/Blog/DPCKstattTPCK
  • Europäische Kommission. (26. Oktober 2022). Europäische Plattform für Schulbildung. Von https://school-education.ec.europa.eu/en/insights/news/ethical-guidelines-use-artificial-intelligence-and-data?prefLang=de&etrans=de abgerufen
  • Europäische Kommission, Generaldirektion Bildung, Jugend, Sport und Kultur. (2022). Ethische Leitlinien für Lehrkräfte über die Nutzung von KI und Daten für Lehr- und Lernzwecke. Amt für Veröffentlichungen der Europäischen Union. doi:https://data.europa.eu/doi/10.2766/494
  • Franz, A. (2024). Lmz – Landesmedienzentrum Baden-Württemberg. Von WAS SIND FAKE NEWS?: https://www.lmz-bw.de/medienbildung/themen-von-f-bis-z/hatespeech-und-fake-news/fake-news/was-sind-fake-news/ abgerufen
  • Hessisches Kultusministerium. (Juli 2023). KÜNSTLICHE INTELLIGENZ (KI) IN SCHULE UND UNTERRICHT, Eine Handreichung für Lehrkräfte zum Umgang mit KI-basierten Anwendungen. Wiesbaden.
  • IBM. (kein Datum). Abgerufen am 04. Juli 2024 von Was ist starke KI?: https://www.ibm.com/de-de/topics/strong-ai
  • IT-SERVICE.NETWORK. (kein Datum). Software – Definition. Abgerufen am 15. Mai 2024 von it-service.network: https://it-service.network/it-lexikon/software/
  • ki thws. (kein Datum). Abgerufen am 04. Juli 2024 von Starke vs. Schwache KI – eine Definition: https://ki.thws.de/thematik/starke-vs-schwache-ki-eine-definition/
  • Kohnke, L., Moorhouse, B., & Zou, D. (2023). ChatGPT for Language Teaching and Learning. (54.2), S. 1-14. doi:10.117/00336882231162868
  • Lawrence, K. (2013). Developing Leaders in a VUCA Environment. UNC Kenan-Flagler: Business School Executive development.
  • Meric, S. (09. November 2023). DIM – Deutsches Institut für Marketing. Abgerufen am 16. Juli 2024 von Künstliche Intelligenz in sozialen Medien: Wie Algorithmen unser Online Verhalten beeinflusst: https://www.marketinginstitut.biz/blog/kuenstliche-intelligenz-in-sozialen-medien/#dim-h2-nr6
  • NDR Medienkompetenz-Portal einfach.medien. (kein Datum). Cybergrooming – was ist das und wie kann ich mich schützen? Die Leitfrage. Von https://www.ndr.de/ratgeber/medienkompetenz/Was-ist-Cybergrooming-Medienkompetenz-Materialien-fuer-die-Schule,cybergrooming122.html abgerufen
  • Ng, D. T., Leung, J. K., Chu, S. K., & Qiao, M. S. (2021). Conceptualizing AI literacy: An exploratory review. Computers and Education: Artificial Intelligence, 2, 1-11. doi:10.1016/j.caeai.2021.100041
  • Ronsdorf, J. (9. April 2020). Microsoft erklärt: Was ist Deep Learning? Definition & Funktionen von DL. Von https://news.microsoft.com/de-de/microsoft-erklaert-was-ist-deep-learning-definition-funktionen-von-dl/ abgerufen
  • Ronsdorf, J. (24. März 2020). Microsoft erklärt: Was ist Machine Learning? Definition & Funktionen von ML. Von https://news.microsoft.com/de-de/microsoft-erklaert-was-ist-machine-learning-definition-funktionen-von-ml/ abgerufen
  • Rouse, M. (27. März 2024). Large Language Model (LLM). Von techopedia: https://www.techopedia.com/de/definition/large-language-model-llm abgerufen
  • Su, J., Chu, S. K., & Ng, D. T. (2023). Artificial Intelligence (AI) Literacy in Early Childhood Education: The Challenges and Opportunities. Computers and Education: Artificial Intelligence, 4, 1-14. doi:10.1016/j.caeai.2023.100124
  • TA-SWISS. (2023). ChatGPT – wenn die künstliche Intelligenz schreibt wie ein Mensch. Und was es dabei zu beachten gilt. Von https://www.ta-swiss.ch/chatgpt abgerufen
  • UNESCO. (2021). AI and education, Guidance for policy-makers. France: United Nations Educational, Scientific and Cultural Organization. doi:https://doi.org/10.54675/PCSP7350