Falschwissen – die unsichtbare Bildungsgefahr im KI-Zeitalter

Künstliche Intelligenz ist im Bildungssystem längst Alltag. Schüler:innen nutzen sie zum Lernen und für Hausaufgaben. Lehrkräfte erstellen mit ChatGPT, Copilot & Co. oder KI-gestützten WebApps in Minuten Arbeitsblätter, Prüfungsfragen und ganze Unterrichtsreihen. Das spart Zeit – birgt aber eine stille Gefahr, die viel zu wenige auf dem Schirm haben: die massenhafte Produktion von Falschwissen.

Was ist Falschwissen?

Falschwissen bezeichnet unzutreffendes oder verzerrtes Wissen, das im Bildungskontext vermittelt wird – unabhängig davon, ob es aus Unachtsamkeit, veralteten Quellen oder fehlerhaften KI-Ausgaben stammt. Im Unterschied zu Fake News (Fehl- und Desinformation) geht es hier nicht um bewusste Manipulation, sondern um unabsichtlich falsche Inhalte, die beim automatisierten Erstellen mit KI entstehen – und anschließend ungeprüft im Unterricht eingesetzt werden.

Warum das Thema dringend ist

Laut Global Risk Report 2024 und 2025 gilt Fehl- und Desinformation als größte kurzfristige Gefahr für die Menschheit – noch vor Kriegen, Pandemien oder Klimakatastrophen. Gelangen falsche Informationen nicht nur über soziale Medien, sondern auch über offizielle Lernmaterialien in die Köpfe, vervielfacht sich das Risiko: Wissen, das einmal als „wahr“ gilt, wird nur selten hinterfragt.

Hochwertige Bildung in Gefahr – SDG 4 unter Druck

Das Nachhaltigkeitsziel SDG 4 der Vereinten Nationen fordert „inklusive, gerechte und hochwertige Bildung“ für alle. Hochwertige Bildung lebt jedoch von verlässlichen, überprüften Informationen – nicht von fehlerhaften oder erfundenen Fakten. Wenn KI-generierte Inhalte ungeprüft im Klassenzimmer landen, wird dieses Ziel untergraben. Damit stehen auch kritisches Denken, demokratische Teilhabe und nachhaltige Entwicklung auf dem Spiel.

Warum KI das Problem verstärkt

KI-Modelle formulieren Antworten überzeugend – auch dann, wenn sie falsch sind. Dieses Phänomen nennt sich „Halluzination“: Das System erfindet Fakten, Quellen oder Zusammenhänge.

  • 27 % der KI-generierten Passagen in einer Analyse waren halluziniert.
  • 46 % aller Texte enthielten mindestens einen faktischen Fehler (Schulportal, 2024).
  • Nur 7 % der von GPT-3 genannten Referenzen waren korrekt – der Rest war falsch oder frei erfunden (Wikipedia, 2024).

Typische Fehlerquellen:

  • Falsche Jahreszahlen: KI gibt z. B. für das Ende des Zweiten Weltkriegs 1944 statt 1945 an.
  • Überzogene Preise und Einschätzungen: KI gibt z.B. an, dass es 30 Minuten dauert eine einzige Zündkerze im VW-Golf zu wechseln (tatsächlich wenige Minuten).
  • Falsche Zuordnungen: Eine historische Person wird mit einer Erfindung in Verbindung gebracht, die sie nie gemacht hat.
  • Fehlende oder verdrehte Zusammenhänge: Ursachen und Folgen politischer Ereignisse werden vertauscht oder vereinfacht dargestellt, wodurch ein falsches Bild der Geschichte entsteht.
  • Unrealistische Beispiele in Naturwissenschaften: Etwa die Behauptung, dass ein bestimmtes Tier in einem Lebensraum vorkommt, in dem es nie existierte.

Solche Fehler sind tückisch, weil sie nicht auf den ersten Blick auffallen, aber langfristig falsche Vorstellungen im Gedächtnis verankern.


Aktuelle Modell-Vergleiche: GPT-5 vs. Llama 3 vs. Apple OpenELM-3B

Neueste Ergebnisse (Stand: 08.08.25) des von Vectara betriebenen Hallucination Leaderboards auf GitHub zeigen deutliche Unterschiede in der Fehlerquote verschiedener Sprachmodelle:

  • OpenAI GPT‑5 und Varianten der Llama 3‑Modelle erreichen zB eine Halluzinationsrate von rund 5 %
  • Im Gegensatz dazu weist zB das Modell Apple OpenELM‑3B‑Instruct eine deutlich höhere Fehlerquote auf – laut Messung liegt sie bei fast 25 %.

Diese Diskrepanz unterstreicht: Nicht nur die Modellgröße, sondern auch die LLM-Architektur und das Training spielen eine entscheidende Rolle für die Zuverlässigkeit – was am Ende ausschlaggebend ist für die Qualität automatisiert erzeugtem Unterrichtsmaterial.

Das Problem: Unter Zeitdruck und in gutem Glauben übernehmen Lehrkräfte solche Inhalte oft ungeprüft – manchmal auch mangels eigener Fachsicherheit.


Die Wirkung: langlebige Irrtümer

Ein ins Lernmaterial eingebauter Fehler wirkt wie ein Virus:

  • Schüler:innen lernen ihn, geben ihn in Referaten weiter und verankern ihn in Projekten.
  • Prüfungsaufgaben auf falscher Grundlage können ganze Jahrgänge betreffen.
  • Ein falscher Fakt im Arbeitsheft kann noch Jahre später in Köpfen sitzen – ohne dass Lehrkraft oder Schule es bemerken.

Falschwissen ist kein Randproblem. KI macht die Erstellung von Lerninhalten massentauglich – und damit auch die Verbreitung von Fehlern. Ohne wirksame Kontrollmechanismen kann das Ausmaß exponentiell wachsen.


Mögliche Gegenmaßnahmen:

  • Quellenpflicht für KI-generierte Unterrichtsinhalte.
  • Peer-Review-Prinzip: Material vor Einsatz von Kolleg:innen gegenprüfen lassen.
  • Schüler:innen einbinden: Inhalte aktiv hinterfragen und Quellen prüfen.
  • Weiterbildung für Lehrkräfte zur Arbeit mit KI und zur Fehlererkennung, z.B. von MediaTeams.
  • Nutzung des Clarity-Tagger-Prompts – für transparente KI-Antworten.

KI kann den Unterricht bereichern und die Arbeit erleichtern – oder zur größten Verbreitungsmaschine für Falschwissen werden, die das Bildungssystem je gesehen hat!

Im Lichte des Global Risk Reports gilt: Wer die Gefahr von Fehl- und Desinformation ernst nimmt, muss im Bildungsbereich besonders aufmerksam sein. Denn hier verwandelt sich Falsches schneller als irgendwo sonst in vermeintlich Unumstößliches.


Was sind Fehl-und Desinformationen?

Grafik, weitere Infos: Bundesregierung.de

0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert