Bildquelle:

Featured image: adobe.stock - dennizn

Wikipedia-Community setzt Grenzen

Wikipedia verschärft Regeln gegen fehlerhafte KI-Texte

Eine neue Regel sorgt bei Wikipedia für Aufsehen: Fehlerhafte, KI-generierte Artikel können jetzt ohne lange Diskussion gelöscht werden. Der Schritt soll die Flut an unzuverlässigen Inhalten eindämmen – und kommt mitten in einer hitzigen Debatte über Künstliche Intelligenz.

Seit Monaten diskutiert die Wikipedia-Community über den Einfluss von Künstlicher Intelligenz auf die Qualität der Enzyklopädie. Immer mehr Texte stammen direkt aus KI-Tools – oft ungeprüft und fehlerhaft. Nun zieht die Plattform eine klare Grenze: Erkennbar fehlerhafte, maschinell erstellte Artikel dürfen ab sofort sofort gelöscht werden, ohne die sonst übliche Diskussionsphase. Wikipedia nennt die neue Regel intern A9 und richtet sie gegen Inhalte, die völlig ohne menschliche Prüfung erscheinen.

Beispiele wie ausgedachte Quellen oder unpassende Studienverweise zeigen, wie gravierend die Probleme sein können. Gleichzeitig hat Wikipedia jüngst ein Experiment mit KI-Zusammenfassungen gestoppt – ebenfalls nach massiver Kritik aus der Community. Doch die Wikimedia Foundation hält an ihren Plänen fest, KI langfristig in verschiedenen Bereichen einzusetzen. Diese Entwicklungen werfen die Frage auf: Wie kann Wikipedia KI nutzen, ohne die eigene Glaubwürdigkeit zu gefährden?

Wikipedia KI-Regel A9: Was sich jetzt ändert

Die neue A9-Regel markiert einen deutlichen Kurswechsel im Umgang mit KI-Content. Bislang musste jeder Löschantrag eine Woche lang öffentlich diskutiert werden. Nun können Administrator/innen einschreiten, sobald ein Artikel klar als „Slop“.

Definition von „Slop“

Unter „Slop“ versteht Wikipedia Texte, die mit typischen KI-Floskeln beginnen, falsche oder frei erfundene Quellen enthalten oder inhaltlich wirr zusammengesetzt sind. Ein kurioses Beispiel: Ein Informatik-Artikel mit einer Studie über Käfer.

Ziel der Regelung

Das Hauptziel besteht darin, die freiwilligen Autor/innen zu entlasten, die bisher viel Zeit mit der Korrektur solcher Inhalte verbracht haben. Die Wikipedia KI-Regel soll verhindern, dass problematische Texte überhaupt länger sichtbar bleiben.

Fällt jeder Artikel unter die KI-Regel?

Nein, nicht jeder KI-generierte Artikel fällt unter die A9-Regel. Wird der Text gründlich überarbeitet, überprüft und mit verlässlichen Quellen versehen, bleibt er erlaubt. Entscheidend ist die menschliche Qualitätskontrolle.

Gescheitertes Experiment: KI-Zusammenfassungen auf Wikipedia

Parallel zur neuen Löschregel stoppte die Wikimedia Foundation ein Testprojekt mit automatisierten Artikelzusammenfassungen.

Der Test startete am 2. Juni 2025 auf der mobilen Version von Wikipedia. Bestimmte Artikel erhielten eine aufklappbare Kurzfassung, erstellt durch ein KI-System und mit einem Warnhinweis versehen. Trotz dieser Transparenz reagierte die Community heftig: Kommentare reichten von „widerlich“ bis „grauenhafte Idee“.

Die Kritiker warnten, dass Wikipedia KI-Experimente das Vertrauen in die Plattform gefährden könnten. Der Grundgedanke der Enzyklopädie sei, dass jeder Beitrag nachvollziehbar und verbesserbar ist – Eigenschaften, die KI-Inhalte oft nicht erfüllen.

Trotz des Abbruchs hält die Stiftung an einer strategischen Einbindung von KI fest. Geplant ist, Moderator:innen mit KI-Tools zu unterstützen, Übersetzungen zu erleichtern und neue Helfer zu schulen. Das Ziel: Mehr Zeit für menschliche Urteilsfähigkeit und Konsensbildung.

THE BIG THING 2026: KI-Consulting
02. & 03. März 2026
18:00
Geschrieben von
Jetzt teilen
[yasr_visitor_votes]

Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Geschrieben von
Jetzt teilen

Das wird dir auch gefallen

Sitemap

schliessen
THE BIG THING 2026: KI-Consulting

02. & 03. März 2026

18:00 Uhr