KI-Orientierung

Eine Orientierung für Lehrpersonen der Sekundarstufe I im Kanton Bern – verfasst von BeLEARN im Auftrag des Amts für Kindergarten, Volksschule und Beratung (AKVB) des Kantons Bern.

Über die KI-Orientierung

Liebe Leserin, lieber Leser herzlich willkommen in der VUCA-Welt! Dieses Akronym beschreibt die Situation, in der wir uns in der heutigen Welt wiederfinden, sehr gut. VUCA steht für Volatility (Unbeständigkeit), Uncertainty (Unsicherheit), Complexity (Komplexität) und Ambiguity (Mehrdeutigkeit). Wir befinden uns in einer Zeit des schnellen und ständigen Wandels, der auch vor dem Bildungswesen nicht Halt macht. Seit einigen Jahren ist die Digitalisierung einer der wichtigsten Faktoren dieses Wandels. Besonders die jüngsten Entwicklungen im Bereich der Künstlichen Intelligenz (KI) stellen Lehrpersonen und Schulleitungen vor immer neue Herausforderungen. 

Im Auftrag des Kantons Bern möchte Ihnen BeLEARN mit dieser KI-Orientierung den Durchblick im KI-Dschungel erleichtern. Angelehnt an Fragen und Bedürfnisse aus der Bildungspraxis haben wir deshalb diese dynamische Webseite für Sie erstellt, welche die riesige Ansammlung von Wissen und Informationen im Internet rund um das Thema KI im Rahmen des Möglichen bündeln soll. Die Inhalte dieser Webseite werden mithilfe eines Boards, bestehend aus Expertinnen und Experten aus der Digitalisierung und der Bildung, zwei bis drei Mal jährlich auf ihre Aktualität geprüft und überarbeitet. Parallel zu der KI-Orientierung entsteht derzeit zudem ein FAQ («Frequently asked questions»), das die brennendsten Fragen von Lehrpersonen und Schulleiterinnen und Schulleitern zum Thema KI in Schule und Unterricht behandeln wird.

 

Hier finden Sie Antworten auf Fragen zur Technologie hinter KI sowie zu pädagogisch-didaktischen, rechtlichen und ethischen Aspekten von KI im schulischen Umfeld. Die wichtigsten Begriffe im Zusammenhang mit KI sind in diesem Leitfaden unterstrichen und werden im Glossar weiter unten erläutert. Die KI-Orientierung enthält zudem konkrete Vorschläge zur sinnvollen Anwendung generativer KI (z.B. ChatGPT) im Unterricht. Obwohl es aktuell keine verbindlichen kantonalen Vorgaben zur Verwendung von KI in der Schule gibt, möchten wir Sie darauf hinweisen, dass der Lehrplan 21 die rechtliche Grundlage für den Unterricht in der Volksschule darstellt und somit als Anhaltspunkt für Schulleitungen und Lehrpersonen im Umgang mit KI dient.

 

Das Thema KI bringt auf den verschiedenen Schulstufen unterschiedliche Herausforderungen mit sich. Auch stehen die Lehrpersonen in ihrer Auseinandersetzung mit diesem Thema an unterschiedlichen Punkten. Wir bemühen uns deshalb eine KI-Orientierung anzubieten, die allen weiterhilft. KI-Einsteiger*innen begleiten wir gerne zusätzlich im Rahmen eines Einführungsworkshops direkt bei Ihnen in der Schule oder auch bei uns im BeLEARN Hub. KI-Erfahrene und Interessierte finden zur vertieften Auseinandersetzung hilfreiche Hinweise auf Artikel, Dossiers und Ressourcen in unserer Linksammlung. Diese hält ausserdem verschiedenste KI-Tools für Sie bereit – klicken Sie sich gerne durch und probieren Sie sie aus! (bitte bis nach ganz unten scrollen)

 

Haben Sie Fragen, auf die Sie in der KI-Orientierung keine Antwort finden? Oder möchten Sie uns gerne ein Feedback zur KI-Orientierung geben? Die KI-Orientierung soll Ihnen in Ihrem Arbeitsalltag dienen, weshalb wir Ihr Feedback sehr gerne für unsere nächste Überarbeitung der KI-Orientierung aufnehmen. Auch bei Interesse an einem KI-Workshop können Sie uns gerne über das Kontaktformular weiter unten kontaktieren.

 

BeLEARN wünscht Ihnen viel Spass beim Eintauchen in die spannende Welt der Künstlichen Intelligenz! 

Praxisbeispiele​

Hier finden Sie Ideen für den Einsatz von generativer KI im Unterricht – mit Beispielen für Sie und Ihre Schüler*innen. Falls Sie nach weiteren Beispielen suchen, empfehlen wir Ihnen auch einen Blick in die «Ideen-Karten KI im Unterricht der PHBern » (Link zuletzt geprüft am 16.10.2024) zu werfen. Die von uns generierten Beispiele sind Ergebnisse aus echten Dialogen mit dem KI-gestützten Chatbot ChatGPT und dem KI-Bildgenerator DALL·E 3 zu Themen, die im Rahmen des Lehrplans 21 behandelt werden. Vielleicht können wir Sie mit unseren Beispielen inspirieren, weitere Anwendungsmöglichkeiten für die generative KI im Unterricht zu entdecken!

Beispiele für Schüler*innen
Beispiele für die Verwendung generativer KI durch Schüler*innen
Zu den Beispielen
Beispiele für Lehrpersonen
Beispiele für die Verwendung generativer KI durch Lehrpersonen
Zu den Beispielen
Previous slide
Next slide

FAQ zur Rechtslage betreffend KI in der Schule

Viele Lehrpersonen beschäftigen rechtliche Fragen zum Thema KI in der Schule. Wir möchten Sie diesbezüglich gern auf das «Datenschutzlexikon des Amts für Kindergarten, Volksschule und Beratung (AKVB) des Kantons Bern» (Link zuletzt geprüft am 16.10.2024) aufmerksam machen. Im Datenschutzlexikon finden Lehrpersonen, Schulleitungen, Schulverwaltungen, Schulbehörden, Fachpersonen und Eltern Antworten auf häufig gestellte Fragen der Berufspraxis. Zudem finden Sie auf der Website ein rechtlich abgestütztes FAQ mit den wichtigsten Fragen und Antworten.

Auch wenn die Schweiz – im Gegensatz zur Europäischen Union – (noch) kein Gesetz in Bezug auf Künstliche Intelligenz erlassen hat, besteht kein Vakuum an rechtlichen Rahmenbedingungen. Vielmehr ist die bestehende Schweizer Rechtsordnung, wie beim Einsatz aller anderer Technologien, ohne Weiteres anwendbar. Der Einsatz von KI-Anwendungen tangiert dabei typischerweise verschiedene Rechtsgebiete:

 

  • Datenschutzrecht (Bearbeitung von Personendaten von Schülerinnen und Schülern)
  • Urheberrecht (Bearbeitung von urheberrechtlich geschützten Unterrichtsunterlagen)
  • Vertragsrecht (Beziehung zwischen Anbieterinnen und Anbietern der KI-Anwendung und Schule inkl. haftungsrechtlicher Verantwortung).

 

Ferner kann auch das kantonale (Schul- oder Verwaltungs-)Recht Vorgaben zur Nutzung von IT-Systemen oder zum Outsourcing von IT-Dienstleistungen machen, die beim Einsatz von KI-Anwendungen jeweils zu beachten sind.

Werden KI-Anwendungen nicht nur zur Gestaltung des Unterrichts, sondern zum Beispiel bei der Mitarbeitersuche oder zur Vorbereitung von Entscheiden eingesetzt, gilt es ferner, dem Gleichbehandlungsgrundsatz beziehungsweise dem Diskriminierungsverbot Rechnung zu tragen: Es muss nachvollziehbar und dokumentierbar sein, wie die KI-Anwendung ihren Entscheid produziert, damit die Gleichbehandlung verschiedener Personen sichergestellt werden kann. Ausserdem muss eine menschliche Kontrolle der Ergebnisse möglich sein.

Nebst der grundlegenden Anforderung, dass KI-generierte Aussagen immer auf ihren Wahrheitsgehalt zu überprüfen sind, muss bei ihrer Nutzung vor allem das Urheberrecht beachtet werden:

 

  • Urheberrechte von Dritten: Die Verwendung von KI-generierten Inhalten kann Urheberrechte Dritter verletzten. Dabei ist entscheidend, ob und inwieweit vorbestehende urheberrechtlich geschützte Werke im KI-generierten Inhalt erkennbar sind. Um dies zu erkennen, muss der KI-generierte Output geprüft werden können. Im Prinzip ist dabei auch eine Übersicht über die von der KI-Anwendung verwendeten Quellen erforderlich. Ist dies nicht möglich, ist die Nutzung der KI-Anwendung nur für den Unterricht unbedenklich, im Rahmen von wissenschaftlichen Arbeiten riskiert man jedoch Urheberrechtsverletzungen.
  • Urheberrechte der KI selbst oder deren Anwender*innen: Von KI-Anwendungen generierte Ergebnisse und Resultate sind nach aktueller Rechtslage mangels Qualifikation als «geistige Schöpfung» urheberrechtlich nicht geschützt. Auch der oder die Nutzer*in einer KI-Anwendung kann folglich kein Urheberrecht am Output der KI erwerben.

Bei der Eingabe von Informationen in KI-Anwendungen müssen verschiedene rechtliche Verpflichtungen berücksichtigt werden. Verantwortlich für deren Einhaltung sind immer die einzelnen Nutzer*innen:

 

  • Datenschutz: Enthalten die Materialien Personendaten (d.h. Daten über eine bestimmte oder bestimmbare Person), ist dem Datenschutzrecht Rechnung zu tragen. Personendaten sowie Informationen, die Geschäfts- oder Amtsgeheimnissen unterliegen, dürfen grundsätzlich nicht in kommerzielle, unentgeltlich genutzte KI-Anwendungen eingegeben werden, weil deren Anbieter*innen die eingegebenen Daten regelmässig zu eigenen Zwecken weiternutzen. Dies ist für die entsprechenden Daten unzulässig. Die Nutzung solcher KI-Anwendungen bedingt vielmehr, dass Personendaten anonymisiert und vertrauliche Daten entfernt werden.
  • Urheberrecht: Bei der Eingabe von urheberrechtlich geschütztem Material in KI-Anwendungen müssen die entsprechenden Berechtigungen (Lizenz oder Einverständnis der Urheber*innen) vorliegen.

Zurzeit besteht keine gesetzliche Deklarationspflicht für den Einsatz von KI-Anwendungen. Eine Ausnahme besteht dann, wenn eine Entscheidung ausschliesslich auf einer automatisierten Bearbeitung beruht (sog. «automatisierten Einzelentscheidungen») wie beispielsweise die vollständig algorithmisch gesteuerte Zulassung und Zuweisung von Bewerberinnen und Bewerbern zu Hochschulen. Die Nutzung von generativen KI-Anwendungen, die Inhalte produzieren, aber nicht in die Rechte und Pflichten von Menschen eingreifen, generiert keine automatisierten Einzelentscheidungen.

 

Es gibt politische Bestrebungen, eine Deklarationspflicht für KI-Anwendungen einzuführen, und auch im Kontext der Forschung wird teilweise empfohlen, die Verwendung von Hilfsmitteln generativer Art entsprechend auszuweisen. Dabei handelt es sich zum jetzigen Zeitpunkt aber lediglich um Empfehlungen und nicht um «harte» rechtliche Pflichten. Wichtig dabei: Es gelten die Regeln der einzelnen Hochschulen. 

Aus juristischer Perspektive gibt es derzeit keine einheitliche Definition für den Begriff «Künstliche Intelligenz». Während die Schweizer Rechtsordnung den Begriff bisher gar nicht einführte, unternahm die Europäische Union mit ihrer KI-Verordnung nun einen Versuch, sogenannte «KI-Systeme» zu definieren. Demnach sind KI-Systeme als maschinengestützte Systeme zu verstehen, die mit einem gewissen Grad an Autonomie operieren, nach dem Einsatz eine Anpassungsfähigkeit zeigen und Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen erzeugen können (Art. 3 Nr. 1 KI-VO). Auch wenn die KI-Verordnung (ähnlich wie die DSGVO) hauptsächlich für die Europäische Union Anwendung findet, ist zu erwarten, dass sich eine allfällige zukünftige Schweizer Rechtsetzung zumindest für das Begriffsverständnis an ihr orientieren wird.

Glossar

Im Glossar finden Sie Definitionen und Erläuterungen von Begriffen, die in der KI-Orientierung vorkommen, ohne dass näher darauf eingegangen wird, und die für das Verständnis von KI relevant sind. Genau wie die restlichen Inhalte der KI-Orientierung wird auch das Glossar regelmässig überarbeitet und erweitert.

Zu der AI Literacy (zu Deutsch «KI-Kompetenzen») gehört nicht nur die Fähigkeit, diverse KI-Systeme nutzen zu können. Lernende sollten auch dazugehörige Konzepte und ethische Aspekte verstehen, damit KI verantwortungsvoll genutzt werden kann (Ng, Leung, Chu, & Qiao, 2021).

Der Begriff Algorithmus beschreibt die schrittweise Anleitung zur Lösung eines Problems. Algorithmen werden in der Informatik zur Programmierung und Softwareentwicklung eingesetzt. Durch die Weiterentwicklung und Verbesserung von Algorithmen kann die Effizienz und Geschwindigkeit eines Programms erhöht werden (Hessisches Kultusministerium, 2023).

Der Begriff «Chatbot» setzt sich aus den beiden Worten «Chat» und «Roboter» zusammen. Häufig wird im täglichen Sprachgebrauch auch nur von «Bots» gesprochen. «Chatbots» sind textbasierte Dialogsysteme, die anhand von identifizierten Schlagworten möglichst passende Antworten auf Fragen generieren. Solche Chatbots werden heute auf vielen Websites verwendet, etwa um Kunden zu jeder Tageszeit beraten zu können. Die Chatbots können mit KI-Systemen verknüpft werden, wodurch eine täuschend echte zwischenmenschliche Kommunikation entstehen kann (Hessisches Kultusministerium, 2023).

Mit dem Begriff «Cybergrooming» wird die langsame Annäherung von Erwachsenen an Kinder und Jugendliche über das Internet oder die sozialen Medien beschrieben. «Grooming» bedeutet so viel wie «Striegeln» oder «pflegen» und meint in dem Kontext, dass sich Erwachsene das Vertrauen von Kindern oder Jugendlichen erschleichen, um diese dann zu sexuellen Handlungen zu nötigen. Die Täter*innen verfolgen dabei oft ein ähnliches Muster: Sie schaffen eine Vertrauensbasis zum Opfer und vermitteln ihm ein Abhängigkeitsgefühl, um es danach zu manipulieren und kontrollieren (NDR Medienkompetenz-Portal einfach.medien, o. D.). Lehrpersonen und Eltern müssen dringend für diese Gefahr sensibilisiert werden, damit sie Kinder und Jugendliche schützen können. Weitere Informationen zu Massnahmen gegen Cybergrooming finden Sie im «Medienkompetenz-Portal» des NDR (Link zuletzt geprüft am 16.10.2024). Auch die Berner Kantonspolizei informiert auf ihrer «Webseite» (Link zuletzt geprüft am 16.10.2024) über die Online-Belästigung von Minderjährigen.

Unter Cybermobbing verstehen wir die Belästigung, Bedrängung, Verleumdung oder Blossstellung einer Person unter der Verwendung digitaler Medien. Ein Beispiel dafür ist die Verbreitung von Texten, Bildern oder Filmen, die einen Menschen diffamieren oder demütigen. Obwohl auch Erwachsene betroffen sind, werden Kinder und Jugendliche viel öfter Opfer von Cybermobbing (Bundesamt für Cybersicherheit BACS, 2023). Mehr Informationen zu Cybermobbing und Massnahmen dagegen finden Sie auf der «Webseite des Bundesamts für Cybersicherheit BACS» (Link zuletzt geprüft am 16.10.2024).

Deepfakes oder auch Deep Fakes sind Bilder oder Videos, die mithilfe von KI erstellt wurden. Die Bilder und Videos erscheinen oft authentisch, sind es aber nicht. Ein Beispiel für Deepfakes sind Gesichter, die auf fremde Körper übertragen werden, um Personen Handlungen simulieren zu lassen, die so nie stattgefunden haben. Ziel von Deepfakes sind oft Manipulation, Propaganda oder Diskreditierung. Deepfakes können zum Entstehen von Fake News beitragen (Bendel, 2019). Ein weiteres häufig gesehenes Beispiel für den Missbrauch von Deepfakes ist das illegale Erstellen gefälschter Pornographie.

KI verdankt dem Deep Learning viele Fortschritte. Beim Deep Learning handelt es sich um eine Methode der Informationsverarbeitung und einen Teilbereich des Maschinellen Lernens (ML). Mithilfe von sogenannten künstlichen neuronalen Netzwerken werden beim Deep Learning grosse Datensätze analysiert. Das Erstaunliche dabei: Deep-Learning-Modelle können selbstständig lernen. Das heisst, dass beim Lernvorgang kein Eingreifen durch Menschen nötig ist (Ronsdorf, 2020b).

Wörtlich übersetzt sind Fake News «gefälschte Nachrichten», also Informationen in Form von Texten, Videos oder Fotos, die nicht wahrheitsgetreu sind. Die Fehlinformationen können mit unbewiesenen Behauptungen gespickt sein oder sich auf nicht geschehene Ereignisse oder Handlungen beziehen. Oft sind sie visuell nicht von echten (überprüften) Nachrichtenbeiträgen zu unterscheiden, fallen jedoch durch reisserische Überschriften oder fehlende Quellen- oder Urheberangaben auf. In der Regel werden Fake News über soziale Medien oder andere elektronische Kanäle verbreitet (Franz, 2024).

Wenn KI-gesteuerte Chatbots halluzinieren, generieren sie scheinbar präzise und gut begründete Informationen, die jedoch keine reale Grundlage besitzen. Da Chatbots nicht dafür entwickelt wurden, keine Antwort auf eine Eingabe zu liefern, neigen sie dazu, vorhandene Informationen auf unlogische Weise zu kombinieren (Hessisches Kultusministerium, 2023).

Inspiriert von biologischen neuronalen Netzwerken, wie sie im Gehirn von Menschen zu finden sind, funktionieren auch die künstlichen neuronalen Netzwerke. Die künstlichen neuronalen Netzwerke erkennen Muster, suchen nach geeigneten Lösungen und schlussfolgern aus den vorhergehenden Überlegungen. Sowohl das menschliche Gehirn als auch künstliche neuronale Netzwerke verarbeiten Daten, jedoch tun dies letztere in einer für Menschen unmöglichen Geschwindigkeit. Das macht sie schneller und effizienter (Ronsdorf, 2020b).

Large Language Models (LLM) sind zu Deutsch «grosse Sprachmodelle». Sie sind darauf ausgelegt, menschliche Sprache nicht nur zu verstehen, sondern auch zu generieren. Large Language Models analysieren Texte, generieren kohärente Antworten und können sogar sprachbezogene Aufgaben erledigen. KI-Sprachmodelle, die auf einem LLM basieren, können zum Beispiel im Kundensupport in Form von automatisierten Chatbots eingesetzt werden. Auch bei der Sprachübersetzung werden LLMs unterstützend eingesetzt ​(Kelbert, Siebert & Jöckel, 2023).

Anders als beim Deep Learning braucht es beim Maschinellen Lernen (ML) den Eingriff des Menschen. Relevante Daten werden in Modelle des Maschinellen Lernens eingespeist, während von Menschen vorgegebene Algorithmen die Verarbeitung der Daten regulieren. Die Algorithmen suchen in den Datensätzen nach Mustern und Gesetzmässigkeiten und generieren daraus Erfahrungen, die dann verallgemeinert und für die Analyse weiterer Datensätze verwendet werden können (Ronsdorf, 2020a).

Bei Prompts handelt es sich um eine Texteingabe, die von einer Anwenderin oder einem Anwender in ein KI-System eingegeben wird (z.B. in einen KI-Chatbot wie ChatGPT). Die Texteingabe kann einen Auftrag, eine Anweisung oder eine Fragestellung enthalten und führt je nach Wortwahl, Detaillierungsgrad und Satzstellung zu einem entsprechenden Ergebnis, das von dem KI-System generiert wird (Hessisches Kultusministerium, 2023). Tipps zum Erstellen von guten ChatGPT-Prompts finden Sie mittlerweile über eine einfache Google-Suche, in den «Ideen-Karten «KI im Unterricht» der PHBern» (Link zuletzt geprüft am 16.10.2024) oder bei anderen Anbietern wie z.B. «Scribbr» (Link zuletzt geprüft am 16.10.2024).

Mit Software sind sämtliche nicht physische Bestandteile von Computern, Computernetzwerken oder mobilen Geräten gemeint. Dazu gehören Programme und Anwendungen (wie z.B. ein Betriebssystem), die das Gerät für die Anwenderin oder den Anwender nutzbar machen (IT-SERVICE.NETWORK, o. D.).

VUCA steht als Akronym für Volatility (Unbeständigkeit), Uncertainty (Unsicherheit), Complexity (Komplexität) und Ambiguity (Mehrdeutigkeit). Die Idee einer VUCA-Welt entstand zu Beginn der 90er Jahre erstmals in der Armee der Vereinigten Staaten von Amerika, um die unsichere Zeit nach dem Ende des Kalten Krieges zu beschreiben. Spätestens seit der Jahrtausendwende hat sich das Akronym aber vor allem im Wirtschaftssektor etabliert, da sich dort eine scheinbar «neue Normalität» etabliert hat, die sich durch Chaos und turbulente Veränderungen auszeichnet (Lawrence, 2013).

Weiterführende Links

Contact Form