Bei der Verwendung von KI in Schule und Unterricht gibt es einige Faktoren zu beachten, damit kein kein Risiko für die Schüler*innen oder die Lehrpersonen entsteht. Die folgende Auflistung von Risiken soll keinesfalls Angst vor der Nutzung von KI auslösen, sondern viel mehr Unterstützung bieten, einen verantwortungsvollen Umgang zu finden.
Obwohl gängige soziale Medien wie TikTok, Instagram und Co. ein Mindestalter von 13 Jahren für die Nutzung der Apps festlegen, kommen Kinder und Jugendliche oft schon viel früher damit in Berührung. Denn: Beim Erstellen eines Benutzerkontos muss zwar ein Geburtsdatum angegeben werden, wird dieses jedoch verfälscht, lassen sich die Apps sehr leicht täuschen. Gerade deshalb ist es besonders wichtig, dass sich Lehrpersonen und Eltern den Funktionsweisen der sozialen Medien bewusst sind und ihre Schüler*innen bzw. Kinder darüber aufklären.
Hinter jedem sozialen Medium steckt ein eigener KI-gesteuerter Algorithmus, der den Nutzer*innen personalisierte Inhalte zuspielt. Der Algorithmus analysiert das Verhalten der Nutzer*innen auf der App und schlägt basierend darauf weitere Inhalte vor, die individuell auf die Interessen der Nutzer*innen zugeschnitten sind. Die Nutzer*innen werden so dazu animiert, möglichst lange auf der Plattform zu verweilen. Nebst der Gefahr, die Zeit zu vergessen, drohen aufgrund dieses Mechanismus aber weitaus grössere Bedrohungen, wie zum Beispiel die Entstehung von sogenannten «Filterblasen» (auch «Meinungsbubbles»). Filterblasen entstehen dann, wenn uns Inhalte vorgeschlagen werden, die bereits unseren Überzeugungen und Interessen entsprechen, während andere Inhalte, die uns herausfordern oder andere Meinungen abbilden, unterschlagen werden (Meric, 2023). Diese Filterblasen bieten deshalb einen guten Nährboden für die Verbreitung von Fake News, die eine Gefahr für unsere Demokratie darstellen können. Um den Rahmen dieser KI-Orientierung nicht zu sprengen, verweisen wir Sie für weitere Informationen gerne auf externe Quellen. Wir empfehlen etwa den Artikel «Die digitale Manipulation» (Link zuletzt geprüft am 17.07.2024) von Filippo Menczer und Thomas Hills im Online-Magazin Spektrum.de oder die «Modulsammlung» (Link zuletzt geprüft am 17.07.2024) des NDR Medienkompetenz-Portals «einfach.medien». In der Modulsammlung des NDR finden Sie interessante Unterrichtsmaterialien für die Medienbildung Ihrer Schüler*innen. Die Sammlung behandelt Themen wie die Funktionsweise von Algorithmen, die Entstehung und Verbreitung von Fake News sowie Quellenprüfung und Cybergrooming.
KI-Anwendungen erfordern meist eine Anmeldung der Nutzer*innen und verlangen dabei in der Regel personenbezogene Daten zur Verifizierung (Bestätigung) des Accounts. Dies ist bezüglich des Datenschutzes der Schüler*innen ebenso bedenklich wie das Verwenden persönlicher Informationen in Prompts. Mehr Informationen zu Datenschutz und Datensicherheit im Umgang mit KI finden Sie in unserem FAQ zur Rechtslage betreffend KI.
Bei der Arbeit mit Chatbots auf generativer KI simuliert der Chatbot ein menschliches Gespräch und es kann der Eindruck entstehen, man kommuniziere mit einem intelligenten Wesen. Lehrpersonen müssen den Schülerinnen und Schülern klar machen, dass es sich bei Reaktionen von ChatGPT und Co. nur um algorithmische Prozesse handelt. Obwohl hinter dem Chatbot keine Person mit Gefühlen steckt, sollten Schüler*innen trotzdem dazu aufgefordert werden, die Grundprinzipien des respektvollen Umgangs auch im Austausch mit KI-gestützten Anwendungen einzuhalten, um eine missbräuchliche Nutzung zu verhindern (Hessisches Kultusministerium, 2023).
ChatGPT macht nicht selten sachliche Fehler, da die statistischen Sprachmodelle anhand von Wahrscheinlichkeiten Antworten auf Prompts generieren. Chatbots haben keine Vorstellung von richtig oder falsch und verstehen die Inhalte nicht, die sie wiedergeben (TA-SWISS, 2023). Im Kontext der generativen KI spricht man deshalb auch von halluzinierenden Chatbots. Halluzinieren meint hier, dass vermeintlich korrekte und fundierte Informationen, die von Chatbots generiert werden, keine Grundlage in der Realität haben. Die Chatbots sind nicht darauf ausgelegt, keine Antworten auf einen Prompt zu liefern und fügen deshalb vorhandene Informationen auf unlogische Art und Weise neu zusammen (Hessisches Kultusministerium, 2023).
Ausdrücke wie «Halluzinierende KI» tragen ausserdem weiter dazu bei, dass KI-Systeme von uns als menschlich wahrgenommen werden (siehe auch Risiko «Vermenschlichte Wahrnehmung der Chatbots»), da wir das Halluzinieren nicht unbedingt mit Computern und Algorithmen in Verbindung bringen, sondern mit Menschen. Schottische Forscher*innen befürchten deshalb, dass der Begriff «Halluzination» in Verbindung mit Künstlicher Intelligenz irreführend ist. Normalerweise beschreibt eine Halluzination eine menschliche Wahrnehmung von etwas, das in der Umwelt nicht wirklich existiert. Wenn dieser Begriff auf KI angewendet wird, wird die Technologie vermenschlicht. Dies kann dazu führen, dass Programmierer*innen ihrer Verantwortung enthoben werden. Der Begriff suggeriert nämlich, dass das KI-System bei falschen Aussagen vom richtigen Weg abkommt, obwohl es denselben vorprogrammierten Prozess durchläuft, um sowohl wahre als auch falsche Aussagen zu treffen (derStandard, 2024).
In Form vermeintlich realer Audio- oder Videoaufnahmen werden Deepfakes zur Täuschung diverser Zielgruppen eingesetzt. Der Begriff Deepfake setzt sich zusammen aus «Deep Learning» (Methode des Maschinellen Lernens) und «Fake», also Fälschung. Es handelt sich dabei um Medienmanipulation mittels generativer KI (Hessisches Kultusministerium, 2023). Besonders gefährlich wird es, wenn Deepfakes nicht mehr zur reinen Unterhaltung, sondern für missbräuchliche Zwecke generiert werden. Deepfakes sind beispielsweise ein Mittel zur Streuung von Desinformationen (Fake News) und können somit die Meinungsbildung einer grossen Anzahl von Personen beeinflussen (TA-SWISS, 2023). Auch für illegale pornografische Zwecke, können Deepfakes missbraucht werden. Um Ihre Fähigkeit im Erkennen von Deepfakes und Fake News zu testen, empfehlen wir Ihnen einen Besuch der Website «In Event Of Moon Disaster» (Link zuletzt geprüft am 17.07.2024). Auf der Website wird Ihnen anhand eines historischen Beispiels die weitreichenden Möglichkeiten von Deepfakes aufgezeigt. Angewendet auf den Schulkontext ist es daher wichtig, Schüler*innen für diesen Missbrauch zu sensibilisieren – vor allem, weil Deepfakes auch für Cybermobbing oder Cybergrooming missbraucht werden können.
KI-Modelle werden mit Daten trainiert, die aus von Menschen verfassten Texten stammen. Die Daten enthalten damit immer auch die persönlichen Meinungen und Haltungen der Verfasser*innen. Folglich werden in den Trainingsdaten oft Stereotype und Vorurteile reproduziert. Auch die Repräsentation aller Sprachen und Kulturen ist durch KI-gestützte Chatbots derzeit nicht zu erwarten, da die grossen Sprachmodelle hauptsächlich mit englischsprachigen Daten entwickelt wurden (TA-SWISS, 2023). Beim Dialog mit KI-Chatbots werden also Inhalte teilweise grob verzerrt, da ganze Menschengruppen und Minderheiten aufgrund von fehlender Dokumentation im KI-Universum gar nicht existieren oder im unendlichen Meer der Trainingsdaten einfach zu wenig Gewicht haben. Weiterführende Informationen zur Ethik von KI finden Sie im Kapitel zu ethischen Leitfragen im Umgang mit KI.
Glossar
Zu der AI Literacy (zu Deutsch «KI-Kompetenzen») gehört nicht nur die Fähigkeit, diverse KI-Systeme nutzen zu können. Lernende sollten auch dazugehörige Konzepte und ethische Aspekte verstehen, damit KI verantwortungsvoll genutzt werden kann (Ng, Leung, Chu, & Qiao, 2021).
Der Begriff Algorithmus beschreibt die schrittweise Anleitung zur Lösung eines Problems. Algorithmen werden in der Informatik zur Programmierung und Softwareentwicklung eingesetzt. Durch die Weiterentwicklung und Verbesserung von Algorithmen kann die Effizienz und Geschwindigkeit eines Programms erhöht werden (Hessisches Kultusministerium, 2023).
Der Begriff «Chatbot» setzt sich aus den beiden Worten «Chat» und «Roboter» zusammen. Häufig wird im täglichen Sprachgebrauch auch nur von «Bots» gesprochen. «Chatbots» sind textbasierte Dialogsysteme, die anhand von identifizierten Schlagworten möglichst passende Antworten auf Fragen generieren. Solche Chatbots werden heute auf vielen Websites verwendet, etwa um Kunden zu jeder Tageszeit beraten zu können. Die Chatbots können mit KI-Systemen verknüpft werden, wodurch eine täuschend echte zwischenmenschliche Kommunikation entstehen kann (Hessisches Kultusministerium, 2023).
Mit dem Begriff «Cybergrooming» wird die langsame Annäherung von Erwachsenen an Kinder und Jugendliche über das Internet oder die sozialen Medien beschrieben. «Grooming» bedeutet so viel wie «Striegeln» oder «pflegen» und meint in dem Kontext, dass sich Erwachsene das Vertrauen von Kindern oder Jugendlichen erschleichen, um diese dann zu sexuellen Handlungen zu nötigen. Die Täter*innen verfolgen dabei oft ein ähnliches Muster: Sie schaffen eine Vertrauensbasis zum Opfer und vermitteln ihm ein Abhängigkeitsgefühl, um es danach zu manipulieren und kontrollieren (NDR Medienkompetenz-Portal einfach.medien). Lehrpersonen und Eltern müssen dringend für diese Gefahr sensibilisiert werden, damit sie Kinder und Jugendliche schützen können. Weitere Informationen zu Massnahmen gegen Cybergrooming finden Sie im «Medienkompetenz-Portal» des NDR (Link zuletzt geprüft am 17.07.2024).
Deepfakes oder auch Deep Fakes sind Bilder oder Videos, die mithilfe von KI erstellt wurden. Die Bilder und Videos erscheinen oft authentisch, sind es aber nicht. Ein Beispiel für Deepfakes sind Gesichter, die auf fremde Körper übertragen werden, um Personen Handlungen simulieren zu lassen, die so nie stattgefunden haben. Ziel von Deepfakes sind oft Manipulation, Propaganda oder Diskreditierung. Deepfakes können zum Entstehen von Fake News beitragen (Bendel, 2019). Ein weiteres häufig gesehenes Beispiel für den Missbrauch von Deepfakes ist das illegale Erstellen gefälschter Pornographie.
KI verdankt dem Deep Learning viele Fortschritte. Beim Deep Learning handelt es sich um eine Methode der Informationsverarbeitung und einen Teilbereich des Maschinellen Lernens (ML). Mithilfe von sogenannten künstlichen neuronalen Netzwerken werden beim Deep Learning grosse Datensätze analysiert. Das Erstaunliche dabei: Deep-Learning-Modelle können selbstständig lernen. Das heisst, dass beim Lernvorgang kein Eingreifen durch Menschen nötig ist (Ronsdorf, Microsoft erklärt: Was ist Deep Learning? Definition & Funktionen von DL, 2020).
Wörtlich übersetzt sind Fake News «gefälschte Nachrichten», also Informationen in Form von Texten, Videos oder Fotos, die nicht wahrheitsgetreu sind. Die Fehlinformationen können mit unbewiesenen Behauptungen gespickt sein oder sich auf nicht geschehene Ereignisse oder Handlungen beziehen. Oft sind sie visuell nicht von echten (überprüften) Nachrichtenbeiträgen zu unterscheiden, fallen jedoch durch reisserische Überschriften oder fehlende Quellen- oder Urheberangaben auf. In der Regel werden Fake News über soziale Medien oder andere elektronische Kanäle verbreitet (Franz, 2024).
Wenn KI-gesteuerte Chatbots halluzinieren, generieren sie scheinbar präzise und gut begründete Informationen, die jedoch keine reale Grundlage besitzen. Da Chatbots nicht dafür entwickelt wurden, keine Antwort auf eine Eingabe zu liefern, neigen sie dazu, vorhandene Informationen auf unlogische Weise zu kombinieren (Hessisches Kultusministerium, 2023).
Inspiriert von biologischen neuronalen Netzwerken, wie sie im Gehirn von Menschen zu finden sind, funktionieren auch die künstlichen neuronalen Netzwerke. Die künstlichen neuronalen Netzwerke erkennen Muster, suchen nach geeigneten Lösungen und schlussfolgern aus den vorhergehenden Überlegungen. Sowohl das menschliche Gehirn als auch künstliche neuronale Netzwerke verarbeiten Daten, jedoch tun dies letztere in einer für Menschen unmöglichen Geschwindigkeit. Das macht sie schneller und effizienter (Ronsdorf, Microsoft erklärt: Was ist Deep Learning? Definition & Funktionen von DL, 2020).
Bei Large Language Models (LLMs) oder auf Deutsch «grossen Sprachmodellen» handelt es sich um Machine-Learning-Modelle, die Texte in menschlicher Sprache verstehen und generieren können. Sie basieren auf der Analyse von grossen Sprachdatensätzen. Es sind also Computerprogramme, die mit zahlreichen Beispielen menschlicher Sprache gefüttert wurden, um dann ebendiese Sprache erkennen und verarbeiten zu können. Mittels Deep Learning, einer Form des Maschinellen Lernens (ML), lernen die LLMs zu verstehen, wie Zeichen, Wörter und Sätze zusammen funktionieren. So können die LLMs zur Programmierung von KI-Chatbots wie ChatGPT genutzt werden (Cloudflare, kein Datum).
Anders als beim Deep Learning braucht es beim Maschinellen Lernen (ML) den Eingriff des Menschen. Relevante Daten werden in Modelle des Maschinellen Lernens eingespeist, während von Menschen vorgegebene Algorithmen die Verarbeitung der Daten regulieren. Die Algorithmen suchen in den Datensätzen nach Mustern und Gesetzmässigkeiten und generieren daraus Erfahrungen, die dann verallgemeinert und für die Analyse weiterer Datensätze verwendet werden können (Ronsdorf, 2020).
Mit Software sind sämtliche nicht physische Bestandteile von Computern, Computernetzwerken oder mobilen Geräten gemeint. Dazu gehören Programme und Anwendungen (wie z.B. ein Betriebssystem), die das Gerät für die Anwenderin oder den Anwender nutzbar machen (IT-SERVICE.NETWORK).
VUCA steht als Akronym für Volatility (Unbeständigkeit), Uncertainty (Unsicherheit), Complexity (Komplexität) und Ambiguity (Mehrdeutigkeit). Die Idee einer VUCA-Welt entstand zu Beginn der 90er Jahre erstmals in der Armee der Vereinigten Staaten von Amerika, um die unsichere Zeit nach dem Ende des Kalten Krieges zu beschreiben. Spätestens seit der Jahrtausendwende hat sich das Akronym aber vor allem im Wirtschaftssektor etabliert, da sich dort eine scheinbar «neue Normalität» etabliert hat, die sich durch Chaos und turbulente Veränderungen auszeichnet. (Lawrence, 2013).