Glossar
Zu der AI Literacy (zu Deutsch «KI-Kompetenzen») gehört nicht nur die Fähigkeit, diverse KI-Systeme nutzen zu können. Lernende sollten auch dazugehörige Konzepte und ethische Aspekte verstehen, damit KI verantwortungsvoll genutzt werden kann (Ng, Leung, Chu, & Qiao, 2021).
Der Begriff Algorithmus beschreibt die schrittweise Anleitung zur Lösung eines Problems. Algorithmen werden in der Informatik zur Programmierung und Softwareentwicklung eingesetzt. Durch die Weiterentwicklung und Verbesserung von Algorithmen kann die Effizienz und Geschwindigkeit eines Programms erhöht werden (Hessisches Kultusministerium, 2023).
Der Begriff «Chatbot» setzt sich aus den beiden Worten «Chat» und «Roboter» zusammen. Häufig wird im täglichen Sprachgebrauch auch nur von «Bots» gesprochen. «Chatbots» sind textbasierte Dialogsysteme, die anhand von identifizierten Schlagworten möglichst passende Antworten auf Fragen generieren. Solche Chatbots werden heute auf vielen Websites verwendet, etwa um Kunden zu jeder Tageszeit beraten zu können. Die Chatbots können mit KI-Systemen verknüpft werden, wodurch eine täuschend echte zwischenmenschliche Kommunikation entstehen kann (Hessisches Kultusministerium, 2023).
Mit dem Begriff «Cybergrooming» wird die langsame Annäherung von Erwachsenen an Kinder und Jugendliche über das Internet oder die sozialen Medien beschrieben. «Grooming» bedeutet so viel wie «Striegeln» oder «pflegen» und meint in dem Kontext, dass sich Erwachsene das Vertrauen von Kindern oder Jugendlichen erschleichen, um diese dann zu sexuellen Handlungen zu nötigen. Die Täter*innen verfolgen dabei oft ein ähnliches Muster: Sie schaffen eine Vertrauensbasis zum Opfer und vermitteln ihm ein Abhängigkeitsgefühl, um es danach zu manipulieren und kontrollieren (NDR Medienkompetenz-Portal einfach.medien). Lehrpersonen und Eltern müssen dringend für diese Gefahr sensibilisiert werden, damit sie Kinder und Jugendliche schützen können. Weitere Informationen zu Massnahmen gegen Cybergrooming finden Sie im «Medienkompetenz-Portal» des NDR (Link zuletzt geprüft am 17.07.2024).
Deepfakes oder auch Deep Fakes sind Bilder oder Videos, die mithilfe von KI erstellt wurden. Die Bilder und Videos erscheinen oft authentisch, sind es aber nicht. Ein Beispiel für Deepfakes sind Gesichter, die auf fremde Körper übertragen werden, um Personen Handlungen simulieren zu lassen, die so nie stattgefunden haben. Ziel von Deepfakes sind oft Manipulation, Propaganda oder Diskreditierung. Deepfakes können zum Entstehen von Fake News beitragen (Bendel, 2019). Ein weiteres häufig gesehenes Beispiel für den Missbrauch von Deepfakes ist das illegale Erstellen gefälschter Pornographie.
KI verdankt dem Deep Learning viele Fortschritte. Beim Deep Learning handelt es sich um eine Methode der Informationsverarbeitung und einen Teilbereich des Maschinellen Lernens (ML). Mithilfe von sogenannten künstlichen neuronalen Netzwerken werden beim Deep Learning grosse Datensätze analysiert. Das Erstaunliche dabei: Deep-Learning-Modelle können selbstständig lernen. Das heisst, dass beim Lernvorgang kein Eingreifen durch Menschen nötig ist (Ronsdorf, Microsoft erklärt: Was ist Deep Learning? Definition & Funktionen von DL, 2020).
Wörtlich übersetzt sind Fake News «gefälschte Nachrichten», also Informationen in Form von Texten, Videos oder Fotos, die nicht wahrheitsgetreu sind. Die Fehlinformationen können mit unbewiesenen Behauptungen gespickt sein oder sich auf nicht geschehene Ereignisse oder Handlungen beziehen. Oft sind sie visuell nicht von echten (überprüften) Nachrichtenbeiträgen zu unterscheiden, fallen jedoch durch reisserische Überschriften oder fehlende Quellen- oder Urheberangaben auf. In der Regel werden Fake News über soziale Medien oder andere elektronische Kanäle verbreitet (Franz, 2024).
Wenn KI-gesteuerte Chatbots halluzinieren, generieren sie scheinbar präzise und gut begründete Informationen, die jedoch keine reale Grundlage besitzen. Da Chatbots nicht dafür entwickelt wurden, keine Antwort auf eine Eingabe zu liefern, neigen sie dazu, vorhandene Informationen auf unlogische Weise zu kombinieren (Hessisches Kultusministerium, 2023).
Inspiriert von biologischen neuronalen Netzwerken, wie sie im Gehirn von Menschen zu finden sind, funktionieren auch die künstlichen neuronalen Netzwerke. Die künstlichen neuronalen Netzwerke erkennen Muster, suchen nach geeigneten Lösungen und schlussfolgern aus den vorhergehenden Überlegungen. Sowohl das menschliche Gehirn als auch künstliche neuronale Netzwerke verarbeiten Daten, jedoch tun dies letztere in einer für Menschen unmöglichen Geschwindigkeit. Das macht sie schneller und effizienter (Ronsdorf, Microsoft erklärt: Was ist Deep Learning? Definition & Funktionen von DL, 2020).
Bei Large Language Models (LLMs) oder auf Deutsch «grossen Sprachmodellen» handelt es sich um Machine-Learning-Modelle, die Texte in menschlicher Sprache verstehen und generieren können. Sie basieren auf der Analyse von grossen Sprachdatensätzen. Es sind also Computerprogramme, die mit zahlreichen Beispielen menschlicher Sprache gefüttert wurden, um dann ebendiese Sprache erkennen und verarbeiten zu können. Mittels Deep Learning, einer Form des Maschinellen Lernens (ML), lernen die LLMs zu verstehen, wie Zeichen, Wörter und Sätze zusammen funktionieren. So können die LLMs zur Programmierung von KI-Chatbots wie ChatGPT genutzt werden (Cloudflare, kein Datum).
Anders als beim Deep Learning braucht es beim Maschinellen Lernen (ML) den Eingriff des Menschen. Relevante Daten werden in Modelle des Maschinellen Lernens eingespeist, während von Menschen vorgegebene Algorithmen die Verarbeitung der Daten regulieren. Die Algorithmen suchen in den Datensätzen nach Mustern und Gesetzmässigkeiten und generieren daraus Erfahrungen, die dann verallgemeinert und für die Analyse weiterer Datensätze verwendet werden können (Ronsdorf, 2020).
Mit Software sind sämtliche nicht physische Bestandteile von Computern, Computernetzwerken oder mobilen Geräten gemeint. Dazu gehören Programme und Anwendungen (wie z.B. ein Betriebssystem), die das Gerät für die Anwenderin oder den Anwender nutzbar machen (IT-SERVICE.NETWORK).
VUCA steht als Akronym für Volatility (Unbeständigkeit), Uncertainty (Unsicherheit), Complexity (Komplexität) und Ambiguity (Mehrdeutigkeit). Die Idee einer VUCA-Welt entstand zu Beginn der 90er Jahre erstmals in der Armee der Vereinigten Staaten von Amerika, um die unsichere Zeit nach dem Ende des Kalten Krieges zu beschreiben. Spätestens seit der Jahrtausendwende hat sich das Akronym aber vor allem im Wirtschaftssektor etabliert, da sich dort eine scheinbar «neue Normalität» etabliert hat, die sich durch Chaos und turbulente Veränderungen auszeichnet. (Lawrence, 2013).