Seit Monaten diskutiert die Wikipedia-Community über den Einfluss von Künstlicher Intelligenz auf die Qualität der Enzyklopädie. Immer mehr Texte stammen direkt aus KI-Tools – oft ungeprüft und fehlerhaft. Nun zieht die Plattform eine klare Grenze: Erkennbar fehlerhafte, maschinell erstellte Artikel dürfen ab sofort sofort gelöscht werden, ohne die sonst übliche Diskussionsphase. Wikipedia nennt die neue Regel intern A9 und richtet sie gegen Inhalte, die völlig ohne menschliche Prüfung erscheinen.
Beispiele wie ausgedachte Quellen oder unpassende Studienverweise zeigen, wie gravierend die Probleme sein können. Gleichzeitig hat Wikipedia jüngst ein Experiment mit KI-Zusammenfassungen gestoppt – ebenfalls nach massiver Kritik aus der Community. Doch die Wikimedia Foundation hält an ihren Plänen fest, KI langfristig in verschiedenen Bereichen einzusetzen. Diese Entwicklungen werfen die Frage auf: Wie kann Wikipedia KI nutzen, ohne die eigene Glaubwürdigkeit zu gefährden?
Wikipedia KI-Regel A9: Was sich jetzt ändert
Die neue A9-Regel markiert einen deutlichen Kurswechsel im Umgang mit KI-Content. Bislang musste jeder Löschantrag eine Woche lang öffentlich diskutiert werden. Nun können Administrator/innen einschreiten, sobald ein Artikel klar als „Slop“.
Definition von „Slop“
Unter „Slop“ versteht Wikipedia Texte, die mit typischen KI-Floskeln beginnen, falsche oder frei erfundene Quellen enthalten oder inhaltlich wirr zusammengesetzt sind. Ein kurioses Beispiel: Ein Informatik-Artikel mit einer Studie über Käfer.
Ziel der Regelung
Das Hauptziel besteht darin, die freiwilligen Autor/innen zu entlasten, die bisher viel Zeit mit der Korrektur solcher Inhalte verbracht haben. Die Wikipedia KI-Regel soll verhindern, dass problematische Texte überhaupt länger sichtbar bleiben.
Fällt jeder Artikel unter die KI-Regel?
Nein, nicht jeder KI-generierte Artikel fällt unter die A9-Regel. Wird der Text gründlich überarbeitet, überprüft und mit verlässlichen Quellen versehen, bleibt er erlaubt. Entscheidend ist die menschliche Qualitätskontrolle.
Gescheitertes Experiment: KI-Zusammenfassungen auf Wikipedia
Parallel zur neuen Löschregel stoppte die Wikimedia Foundation ein Testprojekt mit automatisierten Artikelzusammenfassungen.
Der Test startete am 2. Juni 2025 auf der mobilen Version von Wikipedia. Bestimmte Artikel erhielten eine aufklappbare Kurzfassung, erstellt durch ein KI-System und mit einem Warnhinweis versehen. Trotz dieser Transparenz reagierte die Community heftig: Kommentare reichten von „widerlich“ bis „grauenhafte Idee“.
Die Kritiker warnten, dass Wikipedia KI-Experimente das Vertrauen in die Plattform gefährden könnten. Der Grundgedanke der Enzyklopädie sei, dass jeder Beitrag nachvollziehbar und verbesserbar ist – Eigenschaften, die KI-Inhalte oft nicht erfüllen.
Trotz des Abbruchs hält die Stiftung an einer strategischen Einbindung von KI fest. Geplant ist, Moderator:innen mit KI-Tools zu unterstützen, Übersetzungen zu erleichtern und neue Helfer zu schulen. Das Ziel: Mehr Zeit für menschliche Urteilsfähigkeit und Konsensbildung.

Jana Blümler