Die KI-Orientierung bietet eine ganzheitliche Betrachtung des Themas, indem sie sowohl die Chancen als auch die Herausforderungen aufzeigt. Dabei zielt sie nicht darauf ab, Ängste zu schüren, sondern vielmehr Unterstützung zu bieten, um einen verantwortungsvollen Umgang mit KI zu fördern. Die folgende Auflistung möglicher Risiken dient dazu, ein Bewusstsein für die potenziellen Herausforderungen zu schaffen und zugleich den verantwortungsvollen Einsatz von KI im Unterricht zu fördern.
Obwohl gängige soziale Medien wie TikTok, Instagram und Co. ein Mindestalter von 13 Jahren für die Nutzung der Apps festlegen, kommen Kinder und Jugendliche oft schon viel früher damit in Berührung. Denn: Beim Erstellen eines Benutzerkontos muss zwar ein Geburtsdatum angegeben werden, wird dieses jedoch verfälscht, lassen sich die Apps sehr leicht täuschen. Gerade deshalb ist es besonders wichtig, dass sich Lehrpersonen und Eltern den Funktionsweisen der sozialen Medien bewusst sind und ihre Schüler*innen bzw. Kinder darüber aufklären.
Hinter jedem sozialen Medium steckt ein eigener KI-gesteuerter Algorithmus, der den Nutzerinnen und Nutzern personalisierte Inhalte zuspielt. Der Algorithmus analysiert das Verhalten der Nutzer*innen auf der App und schlägt basierend darauf weitere Inhalte vor, die individuell auf die Interessen der Nutzer*innen zugeschnitten sind. Die Nutzer*innen werden so dazu animiert, möglichst lange auf der Plattform zu verweilen. Nebst der Gefahr, die Zeit zu vergessen, drohen aufgrund dieses Mechanismus aber weitaus grössere Bedrohungen, wie zum Beispiel die Entstehung von sogenannten «Filterblasen» (auch «Meinungsbubbles»). Filterblasen entstehen dann, wenn uns Inhalte vorgeschlagen werden, die bereits unseren Überzeugungen und Interessen entsprechen, während andere Inhalte, die uns herausfordern oder andere Meinungen abbilden, unterschlagen werden (Meric, 2023). Diese Filterblasen bieten deshalb einen guten Nährboden für die Verbreitung von Fake News, die eine Gefahr für unsere Demokratie darstellen können. Um den Rahmen dieser KI-Orientierung nicht zu sprengen, verweisen wir Sie für weitere Informationen gerne auf externe Quellen. Wir empfehlen etwa den Artikel «Die digitale Manipulation» (Link zuletzt geprüft am 16.10.2024) von Filippo Menczer und Thomas Hills im Online-Magazin Spektrum.de oder die «Modulsammlung» (Link zuletzt geprüft am 16.10.2024) des NDR Medienkompetenz-Portals «einfach.medien». In der Modulsammlung des NDR finden Sie interessante Unterrichtsmaterialien für die Medienbildung Ihrer Schüler*innen. Die Sammlung behandelt Themen wie die Funktionsweise von Algorithmen, die Entstehung und Verbreitung von Fake News sowie Quellenprüfung und Cybergrooming.
KI-Anwendungen erfordern meist eine Anmeldung der Nutzer*innen und verlangen dabei in der Regel personenbezogene Daten zur Verifizierung (Bestätigung) des Accounts. Dies ist bezüglich des Datenschutzes der Schüler*innen ebenso bedenklich wie das Verwenden persönlicher Informationen in Prompts. Mehr Informationen zu Datenschutz und Datensicherheit im Umgang mit KI finden Sie in unserem FAQ zur Rechtslage betreffend KI.
Bei der Arbeit mit Chatbots basierend auf generativer KI simuliert der Chatbot ein menschliches Gespräch und es kann der Eindruck entstehen, man kommuniziere mit einem intelligenten Wesen. Lehrpersonen müssen den Schülerinnen und Schülern klar machen, dass es sich bei Reaktionen von ChatGPT und Co. nur um algorithmische Prozesse handelt. Obwohl hinter dem Chatbot keine Person mit Gefühlen steckt, sollten Schüler*innen trotzdem dazu aufgefordert werden, die Grundprinzipien des respektvollen Umgangs auch im Austausch mit KI-gestützten Anwendungen einzuhalten, um eine missbräuchliche Nutzung zu verhindern (Hessisches Kultusministerium, 2023).
ChatGPT macht nicht selten sachliche Fehler. Dies, weil die zugrunde liegenden statistischen Sprachmodelle Antworten auf Prompts anhand von Wahrscheinlichkeitsverteilungen von Wörtern und Phrasen generieren. Chatbots haben keine Vorstellung von richtig oder falsch und verstehen die Inhalte nicht, die sie wiedergeben (TA-SWISS, 2023). Im Kontext der generativen KI spricht man deshalb auch von halluzinierenden Chatbots. Halluzinieren meint hier, dass vermeintlich korrekte und fundierte Informationen, die von Chatbots generiert werden, keine Grundlage in der Realität haben. Die Chatbots sind nicht darauf ausgelegt, keine Antworten auf einen Prompt zu liefern und fügen deshalb vorhandene Informationen auf unlogische Art und Weise neu zusammen (Hessisches Kultusministerium, 2023).
Ausdrücke wie «Halluzinierende KI» tragen ausserdem weiter dazu bei, dass KI-Systeme von uns als menschlich wahrgenommen werden (siehe auch Risiko «Vermenschlichte Wahrnehmung der Chatbots»), da wir das Halluzinieren nicht unbedingt mit Computern und Algorithmen in Verbindung bringen, sondern mit Menschen. Schottische Forscher*innen befürchten deshalb, dass der Begriff «Halluzination» in Verbindung mit Künstlicher Intelligenz irreführend ist. Normalerweise beschreibt eine Halluzination eine menschliche Wahrnehmung von etwas, das in der Umwelt nicht wirklich existiert. Wenn dieser Begriff auf KI angewendet wird, wird die Technologie vermenschlicht. Dies kann dazu führen, dass Programmierer*innen ihrer Verantwortung enthoben werden. Der Begriff suggeriert nämlich, dass das KI-System bei falschen Aussagen vom richtigen Weg abkommt, obwohl es denselben vorprogrammierten Prozess durchläuft, um sowohl wahre als auch falsche Aussagen zu treffen (derStandard, 2024).
In Form vermeintlich realer Audio- oder Videoaufnahmen werden Deepfakes zur Täuschung diverser Zielgruppen eingesetzt. Der Begriff Deepfake setzt sich zusammen aus «Deep Learning» (Methode des Maschinellen Lernens) und «Fake», also Fälschung. Es handelt sich dabei um Medienmanipulation mittels generativer KI (Hessisches Kultusministerium, 2023). Besonders gefährlich wird es, wenn Deepfakes nicht mehr zur reinen Unterhaltung, sondern für missbräuchliche Zwecke generiert werden. Deepfakes sind beispielsweise ein Mittel zur Streuung von Desinformationen (Fake News) und können somit die Meinungsbildung einer grossen Anzahl von Personen beeinflussen (TA-SWISS, 2023). Auch für illegale pornografische Zwecke, können Deepfakes missbraucht werden. Um Ihre Fähigkeit im Erkennen von Deepfakes und Fake News zu testen, empfehlen wir Ihnen einen Besuch der Website «In Event Of Moon Disaster» (Link zuletzt geprüft am 16.10.2024). Auf der Website wird Ihnen anhand eines historischen Beispiels die weitreichenden Möglichkeiten von Deepfakes aufgezeigt. Angewendet auf den Schulkontext ist es daher wichtig, Schüler*innen für diesen Missbrauch zu sensibilisieren – vor allem, weil Deepfakes auch für Cybermobbing oder Cybergrooming missbraucht werden können.
KI-Modelle werden mit Daten trainiert, die aus von Menschen verfassten Texten stammen. Die Daten enthalten damit immer auch die persönlichen Meinungen und Haltungen der Verfasser*innen. Folglich werden in den Trainingsdaten oft Stereotype und Vorurteile reproduziert. Auch die Repräsentation aller Sprachen und Kulturen ist durch KI-gestützte Chatbots derzeit nicht zu erwarten, da die grossen Sprachmodelle hauptsächlich mit englischsprachigen Daten entwickelt wurden (TA-SWISS, 2023). Beim Dialog mit KI-Chatbots werden also Inhalte teilweise grob verzerrt, da ganze Menschengruppen und Minderheiten aufgrund von fehlender Dokumentation im KI-Universum gar nicht existieren oder wegen der schieren Unmenge an Trainingsdaten einfach zu wenig Gewicht haben. Weiterführende Informationen zur Ethik von KI finden Sie im Kapitel zu ethischen Leitfragen im Umgang mit KI.