Wikipedia verbietet KI für Artikel – Menschliches Wissen bleibt Pflicht

Die englischsprachige Wikipedia hat KI-Tools für das Verfassen von Artikeln gesperrt. Mit der neuen Richtlinie will die Enzyklopädie ihre Glaubwürdigkeit als menschlich kuratiertes Wissensarchiv verteidigen.

Strenges Verbot nach überwältigender Community-Abstimmung

Die Entscheidung fiel nach einem klaren Votum der freiwilligen Autorenschaft. Ende März 2026 trat die Richtlinie „Writing Articles with Large Language Models“ in Kraft, die das Erstellen oder grundlegende Überarbeiten von Artikeln durch große Sprachmodelle untersagt. Eine Abstimmung am 20. März brachte mit 44 zu 2 Stimmen eine überwältigende Mehrheit für das Verbot.

Anzeige

Während Wikipedia auf rein menschliche Inhalte setzt, müssen Unternehmen die neuen rechtlichen Rahmenbedingungen für den Einsatz von Algorithmen beachten. Dieser kostenlose Leitfaden zeigt Ihnen, wie Sie die Anforderungen der EU-KI-Verordnung rechtssicher umsetzen. EU-KI-Verordnung kompakt: Jetzt Gratis-E-Book sichern

Hintergrund ist die wachsende Sorge vor KI-generiertem Schrott – sogenanntem AI Slop. Initiiert wurde der Vorstoß von der erfahrenen Editorin „Chaotic Enby“. Die Community fürchtet weniger offensichtliche Fehler, sondern subtile Verzerrungen: KI-Texte wirken oft autoritativ, enthalten aber unbelegte Behauptungen. Die neue Regel stellt klar: Artikel müssen Ergebnis menschlicher Recherche und Synthese bleiben.

Nur zwei Ausnahmen unter strenger Aufsicht

Trotz des grundsätzlichen Verbots gibt es zwei eng umrissene Nischen, in denen KI assistieren darf – stets unter strenger menschlicher Kontrolle.

Die erste Ausnahme betrifft Übersetzungen. KI darf genutzt werden, um Artikel aus anderen Sprachversionen der Wikipedia ins Englische zu übertragen. Voraussetzung ist, dass der Editor beide Sprachen fließend beherrscht, um Nuancen und Fehler der Maschine korrigieren zu können.

Zweitens erlaubt ist stilistische Feinarbeit. KI kann Vorschläge für Grammatik, Rechtschreibung oder leichte stilistische Verbesserungen an bereits von Menschen geschriebenen Texten machen. Entscheidend ist: Die KI darf dabei keine neuen Informationen hinzufügen. Jede Änderung muss manuell geprüft und freigegeben werden. Die Community warnt, dass Sprachmodelle selbst bei kleinen Korrekturen die Bedeutung eines Satzes verfälschen können.

Kampf gegen Halluzinationen und Modell-Kollaps

Die Begründung für das Verbot liegt in den systemischen Risiken der Technologie. Wikipedia-Gründer Jimmy Wales äußerte bereits früher Skepsis gegenüber KI für die Wissensproduktion. Das zentrale Problem: Sprachmodelle halluzinieren regelmäßig Fakten und Quellen. Das untergräbt das Fundament der Enzyklopädie – Verifizierbarkeit und neutrale Darstellung.

Anzeige

Nicht nur Halluzinationen, auch neue regulatorische Pflichten fordern Verantwortliche beim Thema künstliche Intelligenz heraus. Erfahren Sie in diesem kostenlosen Umsetzungsleitfaden, welche Kennzeichnungspflichten und Risikoklassen Sie seit August 2024 unbedingt kennen müssen. Kostenlosen Leitfaden zur KI-Verordnung herunterladen

Hinzu kommt die langfristige Gefahr des Modell-Kollapses. Wenn KI-Systeme zunehmend mit von KI generierten Inhalten trainiert werden, verschlechtert sich die Qualität der Datenbasis. Indem Wikipedia auf menschliche Autoren setzt, bleibt ihr Korpus eine „saubere“ Datenquelle für zukünftige Generationen von Wissensmodellen. Diese Rolle ist zentral, denn Wikipedia speist auch Suchmaschinen und digitale Assistenten.

Finanzierung durch Tech-Giganten trotz KI-Skepsis

Das Verbot fällt in eine Phase veränderten Nutzerverhaltens. Die Wikimedia Foundation verzeichnete 2025 einen Rückgang der Seitenaufrufe um 8 Prozent – eine Folge der Konkurrenz durch KI-Chatbots. Gleichzeitig schloss die Stiftung im Januar 2026 bedeutende Verträge mit Tech-Unternehmen wie Amazon, Microsoft, Meta und Perplexity.

Diese Firmen zahlen nun für den Hochvolumenzugriff auf Wikipedia-Daten via Enterprise API. So finanziert die KI-Industrie indirekt das menschliche Wissensprojekt, während sie dessen Inhalte für das Training ihrer eigenen Systeme nutzt. Ein paradoxer, aber für den Erhalt der Enzyklopädie wohl notwendiger Kompromiss.

Herausforderung Durchsetzung und Signalwirkung

Die Durchsetzung des Verbots bleibt eine Herausforderung für die Community. Die Richtlinien raten ausdrücklich davon ab, sich auf reine KI-Erkennungssoftware zu verlassen, die oft unzuverlässig ist. Stattdessen sollen Reviewer die Qualität der Quellen und die Konsistenz der Editor-Historie prüfen. Wiederholte Verstöße können als Störung der Arbeit gewertet und mit Sperren geahndet werden.

Die Entscheidung der englischen Wikipedia hat Signalwirkung für das gesamte digitale Ökosystem. In einer Zeit, in der synthetischer Content das Web flutet, gewinnt eine Quelle an Wert, die menschlich verifizierte Genauigkeit garantieren kann. Andere Sprachversionen mögen eigene Wege gehen, doch das englische Vorbild setzt einen machtvollen Präzedenzfall. Die Botschaft ist eindeutig: In diesem Tempel des Wissens schreibt vorerst weiter der Mensch.