Chancen von KI in der Schule

KI kann im Bildungskontext auf diversen Ebenen vorteilhaft eingesetzt werden. So kann sie zum Beispiel sowohl die Lehrpersonen im Einzelnen als auch das Schulsystem als Ganzes entlasten, indem sie bestimmte wiederkehrende Aufgaben automatisiert (UNESCO, 2021). Im Unterricht selbst kann KI die Vermittlung von Wissen an Schüler*innen fördern und so die Lernenden wie auch die Lehrpersonen unterstützen. Ein geeigneter Einsatz von KI-Tools kann auch die Beteiligung und die Zusammenarbeit zwischen den Schülerinnen und Schülern fördern. Chatbots können beispielsweise direktes Feedback zu gewissen Aufgaben geben, das auf die jeweiligen Bedürfnisse und offenen Fragen der Lernenden zugeschnitten ist. Solche personalisierten Rückmeldungen könnten die Betreuung von heterogenen Klassen erleichtern (UNESCO, 2021; Akgun & Greenhow, 2021). Schliesslich erlaubt der Gebrauch von KI-Tools im Unterricht eine Auseinandersetzung mit der Technologie, die die Schüler*innen im Umgang mit KI schult und ihre KI-Kompetenzen («AI Literacy») sowie ihre allgemeinen Medienkompetenzen fördert. So werden sie auf die digitalisierte Welt vorbereitet und lernen, wie sie mit der Vielfalt der neu entwickelten Tools am besten umgehen. Sie können die vielen Möglichkeiten von KI selbst erfahren und werden gleichzeitig auf ihre Grenzen aufmerksam. Dies ermöglicht ihnen wiederum Teilnahme an dem unausweichlichen Diskurs über den kritischen Umgang mit KI-Technologien (Kohnke, Moorhouse, & Zou, 2023; Ng, Leung, Chu, & Qiao, 2021; Su, Chu, & Ng, 2023). Konkrete Beispiele für die Nutzung generativer KI im Klassenzimmer finden Sie übrigens in unseren Praxisbeispielen für den Einsatz generativer KI. Schauen Sie ausserdem gerne bei unserer Linksammlung vorbei, in der Sie verschiedenste Ressourcen und KI-Tools finden. Durch das gemeinsame Ausprobieren können Sie mit Ihren Schülerinnen und Schülern in den Austausch treten und gemeinsam weitere Einsatzmöglichkeiten von KI diskutieren. Denn auch hier gilt das Prinzip: «Learning by doing»!

Glossar

Zu der AI Literacy (zu Deutsch «KI-Kompetenzen») gehört nicht nur die Fähigkeit, diverse KI-Systeme nutzen zu können. Lernende sollten auch dazugehörige Konzepte und ethische Aspekte verstehen, damit KI verantwortungsvoll genutzt werden kann (Ng, Leung, Chu, & Qiao, 2021).

Der Begriff Algorithmus beschreibt die schrittweise Anleitung zur Lösung eines Problems. Algorithmen werden in der Informatik zur Programmierung und Softwareentwicklung eingesetzt. Durch die Weiterentwicklung und Verbesserung von Algorithmen kann die Effizienz und Geschwindigkeit eines Programms erhöht werden (Hessisches Kultusministerium, 2023).

Der Begriff «Chatbot» setzt sich aus den beiden Worten «Chat» und «Roboter» zusammen. Häufig wird im täglichen Sprachgebrauch auch nur von «Bots» gesprochen. «Chatbots» sind textbasierte Dialogsysteme, die anhand von identifizierten Schlagworten möglichst passende Antworten auf Fragen generieren. Solche Chatbots werden heute auf vielen Websites verwendet, etwa um Kunden zu jeder Tageszeit beraten zu können. Die Chatbots können mit KI-Systemen verknüpft werden, wodurch eine täuschend echte zwischenmenschliche Kommunikation entstehen kann (Hessisches Kultusministerium, 2023).

Mit dem Begriff «Cybergrooming» wird die langsame Annäherung von Erwachsenen an Kinder und Jugendliche über das Internet oder die sozialen Medien beschrieben. «Grooming» bedeutet so viel wie «Striegeln» oder «pflegen» und meint in dem Kontext, dass sich Erwachsene das Vertrauen von Kindern oder Jugendlichen erschleichen, um diese dann zu sexuellen Handlungen zu nötigen. Die Täter*innen verfolgen dabei oft ein ähnliches Muster: Sie schaffen eine Vertrauensbasis zum Opfer und vermitteln ihm ein Abhängigkeitsgefühl, um es danach zu manipulieren und kontrollieren (NDR Medienkompetenz-Portal einfach.medien). Lehrpersonen und Eltern müssen dringend für diese Gefahr sensibilisiert werden, damit sie Kinder und Jugendliche schützen können. Weitere Informationen zu Massnahmen gegen Cybergrooming finden Sie im «Medienkompetenz-Portal» des NDR (Link zuletzt geprüft am 17.07.2024).

Unter Cybermobbing verstehen wir die Belästigung, Bedrängung, Verleumdung oder Blossstellung einer Person unter der Verwendung digitaler Medien. Ein Beispiel dafür ist die Verbreitung von Texten, Bildern oder Filmen, die einen Menschen diffamieren oder demütigen. Obwohl auch Erwachsene betroffen sind, werden Kinder und Jugendliche viel öfter Opfer von Cybermobbing (Bundesamt für Cybersicherheit BACS, 2023). Mehr Informationen zu Cybermobbing und Massnahmen dagegen finden Sie auf der «Webseite des Bundesamts für Cybersicherheit BACS» (Link zuletzt geprüft am 17.07.2024).

Deepfakes oder auch Deep Fakes sind Bilder oder Videos, die mithilfe von KI erstellt wurden. Die Bilder und Videos erscheinen oft authentisch, sind es aber nicht. Ein Beispiel für Deepfakes sind Gesichter, die auf fremde Körper übertragen werden, um Personen Handlungen simulieren zu lassen, die so nie stattgefunden haben. Ziel von Deepfakes sind oft Manipulation, Propaganda oder Diskreditierung. Deepfakes können zum Entstehen von Fake News beitragen (Bendel, 2019). Ein weiteres häufig gesehenes Beispiel für den Missbrauch von Deepfakes ist das illegale Erstellen gefälschter Pornographie.

KI verdankt dem Deep Learning viele Fortschritte. Beim Deep Learning handelt es sich um eine Methode der Informationsverarbeitung und einen Teilbereich des Maschinellen Lernens (ML). Mithilfe von sogenannten künstlichen neuronalen Netzwerken werden beim Deep Learning grosse Datensätze analysiert. Das Erstaunliche dabei: Deep-Learning-Modelle können selbstständig lernen. Das heisst, dass beim Lernvorgang kein Eingreifen durch Menschen nötig ist (Ronsdorf, Microsoft erklärt: Was ist Deep Learning? Definition & Funktionen von DL, 2020).

Wörtlich übersetzt sind Fake News «gefälschte Nachrichten», also Informationen in Form von Texten, Videos oder Fotos, die nicht wahrheitsgetreu sind. Die Fehlinformationen können mit unbewiesenen Behauptungen gespickt sein oder sich auf nicht geschehene Ereignisse oder Handlungen beziehen. Oft sind sie visuell nicht von echten (überprüften) Nachrichtenbeiträgen zu unterscheiden, fallen jedoch durch reisserische Überschriften oder fehlende Quellen- oder Urheberangaben auf. In der Regel werden Fake News über soziale Medien oder andere elektronische Kanäle verbreitet (Franz, 2024).

Wenn KI-gesteuerte Chatbots halluzinieren, generieren sie scheinbar präzise und gut begründete Informationen, die jedoch keine reale Grundlage besitzen. Da Chatbots nicht dafür entwickelt wurden, keine Antwort auf eine Eingabe zu liefern, neigen sie dazu, vorhandene Informationen auf unlogische Weise zu kombinieren (Hessisches Kultusministerium, 2023).

Inspiriert von biologischen neuronalen Netzwerken, wie sie im Gehirn von Menschen zu finden sind, funktionieren auch die künstlichen neuronalen Netzwerke. Die künstlichen neuronalen Netzwerke erkennen Muster, suchen nach geeigneten Lösungen und schlussfolgern aus den vorhergehenden Überlegungen. Sowohl das menschliche Gehirn als auch künstliche neuronale Netzwerke verarbeiten Daten, jedoch tun dies letztere in einer für Menschen unmöglichen Geschwindigkeit. Das macht sie schneller und effizienter (Ronsdorf, Microsoft erklärt: Was ist Deep Learning? Definition & Funktionen von DL, 2020).

Bei Large Language Models (LLMs) oder auf Deutsch «grossen Sprachmodellen» handelt es sich um Machine-Learning-Modelle, die Texte in menschlicher Sprache verstehen und generieren können. Sie basieren auf der Analyse von grossen Sprachdatensätzen. Es sind also Computerprogramme, die mit zahlreichen Beispielen menschlicher Sprache gefüttert wurden, um dann ebendiese Sprache erkennen und verarbeiten zu können. Mittels Deep Learning, einer Form des Maschinellen Lernens (ML), lernen die LLMs zu verstehen, wie Zeichen, Wörter und Sätze zusammen funktionieren. So können die LLMs zur Programmierung von KI-Chatbots wie ChatGPT genutzt werden (Cloudflare, kein Datum).

Anders als beim Deep Learning braucht es beim Maschinellen Lernen (ML) den Eingriff des Menschen. Relevante Daten werden in Modelle des Maschinellen Lernens eingespeist, während von Menschen vorgegebene Algorithmen die Verarbeitung der Daten regulieren. Die Algorithmen suchen in den Datensätzen nach Mustern und Gesetzmässigkeiten und generieren daraus Erfahrungen, die dann verallgemeinert und für die Analyse weiterer Datensätze verwendet werden können (Ronsdorf, 2020).

Bei Prompts handelt es sich um eine Texteingabe, die von einer Anwenderin oder einem Anwender in ein KI-System eingegeben wird (z.B. in einen KI-Chatbot wie ChatGPT). Die Texteingabe kann einen Auftrag, eine Anweisung oder eine Fragestellung enthalten und führt je nach Wortwahl, Detaillierungsgrad und Satzstellung zu einem entsprechenden Ergebnis, das von dem KI-System generiert wird (Hessisches Kultusministerium, 2023). Tipps zum Erstellen von guten ChatGPT-Prompts finden Sie mittlerweile über eine einfache Google-Suche, in den «Ideen-Karten «KI im Unterricht» der PHBern» (Link zuletzt geprüft am 17.07.2024) oder bei anderen Anbietern wie z.B. «Scribbr» (Link zuletzt geprüft am 17.07.2024).

Mit Software sind sämtliche nicht physische Bestandteile von Computern, Computernetzwerken oder mobilen Geräten gemeint. Dazu gehören Programme und Anwendungen (wie z.B. ein Betriebssystem), die das Gerät für die Anwenderin oder den Anwender nutzbar machen (IT-SERVICE.NETWORK).

VUCA steht als Akronym für Volatility (Unbeständigkeit), Uncertainty (Unsicherheit), Complexity (Komplexität) und Ambiguity (Mehrdeutigkeit). Die Idee einer VUCA-Welt entstand zu Beginn der 90er Jahre erstmals in der Armee der Vereinigten Staaten von Amerika, um die unsichere Zeit nach dem Ende des Kalten Krieges zu beschreiben. Spätestens seit der Jahrtausendwende hat sich das Akronym aber vor allem im Wirtschaftssektor etabliert, da sich dort eine scheinbar «neue Normalität» etabliert hat, die sich durch Chaos und turbulente Veränderungen auszeichnet. (Lawrence, 2013).