Auf der South by Southwest Konferenz in London hatte ich letzten Monat das Vergnügen, Wikipedia-Gründer Jimmy Wales in einem Kamingespräch mit dem Sunday Times Redakteur Jim Armitage zu erleben. Das war das erste Mal, dass ich Wales live gesehen habe, seit ich ihn 2006 für die Die Welt interviewte. Damals sprach Wales vor Staatsgästen im Gästehaus Petersberg im Siebengebirge bei Königswinter und wir trafen uns dort am nächsten Morgen zum Frühstück. (Mein Interview ist auf der Website von Die Welt nicht mehr abrufbar, aber hier ist ein Auszug bei Spiegel Online.)

2006 sprach Wales mit mir über damals hochaktuelle Themen wie Schwarmintelligenz (daran glaubte er nicht) und das Creative-Commons-Lizenzmodell, das noch ziemlich neu war. Auf der SXSW-Bühne in London war das Hauptthema KI. Wales enthüllte, wie Wikipedia im Backend (abseits vom Publikum) KI-Tools testet, um sich gegen erfundene Quellen zu wehren und bessere Wege zur Überprüfung von Neutralität und Bias-Erkennung zu entwickeln. Gleichzeitig startet die Wikimedia Foundation (die gemeinnützige Organisation, die hinter Wikipedia und anderen Wikimedia-Projekte steht) eine offizielle Strategie, die voll auf menschliche Redakteure setzt.

Wikipedia experimentiert mit künstlicher Intelligenz, um die Kernmission der Enzyklopädie - Neutralität und Faktentreue - zu stärken. Anstatt KI zur Produktion von Inhalten zu nutzen, hat Wales Tools entwickelt, die Bestandsartikel mit Quellen abgleichen, mögliche Voreingenommenheit aufspüren und Redakteuren dabei helfen, erfundene Quellen zu erkennen, die zunehmend durch die Maschen von traditionellem Fact-Checking rutschen. Sein Ansatz offenbart eine pragmatische Philosophie: KI nutzen, um menschliches Urteilsvermögen zu unterstützen, aber niemals, um es zu ersetzen.

Wales KI-Experimente sind Teil der offiziellen KI-Strategie der Wikimedia Foundation, die im April 2025 angekündigt wurde und die Unterstützung menschlicher Redakteure über Automatisierung stellt. Die Strategie stellt eine koordinierte Antwort auf die wachsenden Herausforderungen durch KI-generierte Desinformation dar. Wikipedia ist bereits von Falschinformationen durchdrungen, die ständig bekämpft werden müssen.

Der Kampf gegen falsche ISBN-Nummern und andere erfundene Quellen

Wikipedia muss sich derzeit mit einer neuen Kategorie von Desinformation befassen: gutgläubige Redakteure, die unwissentlich KI-generierte Fake-Quellen hinzufügen. Wales schilderte ein aufschlussreiches Beispiel aus der deutschen Wikipedia, wo ein ehrenamtlicher Redakteur mehrere ungültige ISBN-Buchreferenzen entdeckte, die alle von einem einzigen anderen Redakteur stammten.

"Der Typ hatte, wie sich herausstellte, offenbar gutgläubig ChatGPT benutzt," erklärte Wales bei der SXSW London. "Er suchte nach einigen Quellen in ChatGPT und fügte sie einfach in den Artikel ein. Natürlich hatte ChatGPT sie völlig frei erfunden."

Die Fakes sind raffiniert genug, um bei oberflächlichen Überprüfungen durchzurutschen. Wales beschrieb, wie er ChatGPT nach Kochrezepten mit Links zu berühmten Koch-Websites fragte. Alle Links führten zu 404-Fehlermeldungen. "Aber als ich genauer hinschaute, hatten sie alle die Form von 'Jamie Oliver/Menü/Rezept/wasauchimmer'. Die URLs sahen echt aus, bis ins kleinste Detail, obwohl sie völlig frei erfunden waren."

Dieses Problem ist größer als einzelne Redakteure, denen Fehler unterlaufen. Laut dem Strategiedokument der Wikimedia Foundation können "Tausende schwer erkennbare Wikipedia-Fakes und andere Formen von Desinformation und Falschinformation in Minuten produziert werden", was neue Ansätze zur Inhaltsverifikation erfordert.

Das Problem verschärfte sich im letzten US-Präsidentschaftswahlkampf und unterscheidet sich grundlegend von den "Fake News"-Seiten, die in früheren Wahlzyklen auftauchten. Diese Seiten konnten von Wikipedias erfahrenen Redakteuren relativ leicht erkannt werden, weil "plausibel aussehen nicht reicht, um Leute zu täuschen, die ihr Leben damit verbringen, buchstäblich obsessiv über die Qualität von Quellen zu debattieren," betonte Wales. KI-generierte Quellen bestehen jedoch erste Glaubwürdigkeitstests mühelos, obwohl sie komplett erfunden sind.

Wales' Experimente mit KI-Verifizierungstools

Wales hat sein eigenes KI-gestütztes Analysesystem entwickelt. Sein Tool nimmt einen Wikipedia-Artikel, extrahiert alle Quellen und stellt zwei Schlüsselfragen: "Gibt es etwas, was nicht im Artikel steht, aber auf diesen Quellen basieren könnte, und gibt es etwas im Artikel, was nicht von den Quellen gestützt wird?"

Das System zeigt frühe Erfolge auch bei der Bias-Erkennung. "Füttere es mit einem Artikel und allen Quellen und frage: 'Ist dieser Artikel im Vergleich zu den Quellen in irgendeiner Weise voreingenommen?'" erklärte Wales. "Es wird nicht alles erwischen und manchmal falsch liegen." Aber das Tool scheint gut genug zu sein, um menschlichen Redakteuren auf sinnvolle Weise zu helfen.

Das Prinzip "Human in the loop" bleibt jedoch unerlässlich. "Man kann KI nicht selbstständig Wikipedia editieren lassen, weil die KI links und rechts einfachen Sachen erfindet," sagte Wales. Wikipedias Kernphilosophie ist deshalb, dass KI potenzielle Probleme für menschliche Überprüfung markieren, aber keine eigenen redaktionellen Entscheidungen treffen sollte.

Wie TechCrunch im April 2025 berichtete, beabsichtigt Wikipedia, "KI als Tool zu nutzen, das die Arbeit der Menschen erleichtert, sie aber nicht ersetzt." Die Organisation lehnte explizit die Idee ab, menschliche Redakteure durch KI zu ersetzen, und konzentriert sich stattdessen auf "spezifische Bereiche, in denen generative KI hervorragend ist", um menschliche Entscheidungsfindung zu unterstützen.

Offizielle Strategie: Redakteure in ihren Zielen unterstützen

Die KI-Strategie der Wikimedia Foundation formalisiert diesen menschenzentrierten Ansatz. Chris Albon, Direktor für maschinelles Lernen bei der Wikimedia Foundation, und Leila Zia, Forschungsleiterin, schrieben im April 2025: "Wir werden KI nutzen, um Features zu entwickeln, die technische Barrieren beseitigen und der Kerngruppe von von Wikipedia-Redakteuren ermöglichen, ihre wertvolle Zeit damit zu verbringen, was sie erreichen wollen und nicht vorschreiben, wie sie es technisch umsetzen."

Die Strategie identifiziert vier Schlüsselbereiche für KI-Investitionen:

  • Moderatoren und Kontrolleuren mit KI-unterstützten Arbeitsabläufen unterstützen: monotone Aufgaben automatisieren und gleichzeitig die Qualitätskontrolle aufrechterhalten. Wie das Strategiedokument anmerkt, liegt die Priorität darauf, "KI zu nutzen, um die Integrität des Wissen zu unterstützen und den Moderatoren dabei zu helfen, Wikipedias Qualität zu erhalten."

  • Auffindbarkeit von Information verbessern: Redakteuren mehr Zeit zum Nachdenken, Debattieren und zur Konsensbildung geben anstelle der Suche nach Quellen und Hintergrundinformationen

  • Übersetzung und Anpassung häufiger Themen automatisieren: Redakteuren dabei helfen, lokale Perspektiven zu teilen - besonders wichtig für weniger vertretene Sprachen

  • Das Onboarding neuer Ehrenamtlicher skalieren: Mentoren befähigen, neue Redakteure effektiver in die Community einzubringen

Die Strategie betont Open-Source-Ansätze und Transparenz und spiegelt Wikipedias grundlegende Werte wider. Künftig soll jährlich überprüft werden, ob die Strategie noch angemessen ist, mit dem Tempo der KI-Entwicklung mitzuhalten.

Community-getriebene Verteidigungstrategie: WikiProject AI Cleanup

Während die Wikimedia Foundation offizielle Strategien entwickelt, haben ehrenamtliche Redakteure bereits eigene Initiativen gestartet. Das WikiProject “AI Cleanup” wurde 2023 gegründet und gewann 2024 deutlich an Schwung. Es ist seine Graswurzelbewegung, um KI-generierte Inhalte zu bekämpfen.

"Einige von uns hatten bemerkt, das immer mehr Wikipedia-Einträge stilistisch unnatürlich wirkten mit klaren Anzeichen von KI-Generierung. Wir konnten ähnliche 'Stile' mit ChatGPT replizieren," erzählte Ilyas Lebleu, ein Gründungsmitglied von WikiProject AI Cleanup, 404 Media im November 2024. "Nachdem wir einige einige häufige KI-Phrasen markiert hatten, konnten wir schnell einige der krassesten Beispiele generierter Artikel identifizieren."

Das Projekt hat systematische Ansätze zur Identifizierung von KI-Inhalten entwickelt, einschließlich einer detaillierten Liste von "KI-Phrasen" - Sprachmuster, die automatisierte Generierung verraten. Häufige Indikatoren sind Phrasen wie "dient als Zeugnis", "spielt eine wichtige Rolle", "fasziniert weiterhin" und offensichtliche KI-Antworten wie "als KI-Sprachmodell" oder "nach meinem letzten Wissensstand".

Ein Beispiel, das die Gruppe identifizierte, war ein Wikipedia-Artikel über das Chester Mental Health Center, der die Phrase "Nach meinem letzten Wissensstand im Januar 2022" enthielt - ein klares Zeichen für ChatGPT-generierten Inhalt, der nicht ordentlich bearbeitet worden war.

Das Ziel des Projekts ist laut seiner Wikipedia-Seite "nicht, die Nutzung von KI in Artikeln zu beschränken oder zu verbieten, sondern zu überprüfen, ob der Output akzeptabel und konstruktiv ist, und die Beiträge andernfalls zu korrigieren oder zu entfernen."

Wikipedias Redaktionsgemeinschaft wird sich der Risiken durch KI immer bewusster. "Unsere Community ist wachsamer geworden bezüglich der Quellen," bemerkte Wales in London. "Nur weil es einen Link gibt, macht ihn das nicht echt. Du musst auf den Link klicken und prüfen, existiert eine Seite überhaupt?"

Die radikale Transparenz der Plattform hilft. Wenn erfahrene Redakteure erfundene Quellen entdecken, leiten sie Neulinge an, dass sie ChatGPT nicht einfach vertrauen können.

Dieser Community- und letztendlich menschlich gesteuerte Verifizierungsprozess steht in scharfem Kontrast zu Wikipedias algorithmischer Diskussionsmoderation. Wie Wales es bei SXSW London ausdrückte: "Wikipedia hat keine Box, die fragt: 'Was denkst du gerade?' Weil sich herausstellt, dass viele Leute ziemlich schreckliche Sachen im Kopf haben."

Der Unterschied zwischen Wikipedia und sozialen Medien

Wales' Ansatz zur KI spiegelt eine breitere Philosophie wider, bei der es um die Rolle von Technologie bei der Aufrechterhaltung von Informationsqualität geht. Im Gegensatz zu Social-Media-Plattformen, die sich mit der Skalierung von moderierten Inhalten sehr schwer tun, begrenzt Wikipedias Struktur auf natürliche Weise das Schadenspotenzial von KI.

"Wir haben Enzyklopädie-Artikel und die Diskussionsseiten. Und wir versuchen, alle Ansichten auf faire Weise zu präsentieren. Wir werden versuchen, aufmerksam und freundlich zueinander zu sein," erklärte Wales in London. "Das ist ein viel lösbareres Problem."

Wales lobte X/Twitters Community Notes Feature als "ziemlich gut" und "skalierbar", weil es auf "vertrauenswürdigen Leuten in der Community" basiert. Aber er kritisierte Metas Entscheidung, Fact-Checking-Programme aufzugeben, und bemerkte, dass, obwohl die Programme "nicht wirklich funktioniert haben," die Alternative "wenn es nicht illegal ist, werden wir es nicht entfernen" auch nicht die richtige Antwort ist.

Lektionen für die Integrität von Informationen

Wales' Wikipedia-Experimente bieten Lektionen für andere Plattformen, die mit KI-generierter Desinformation kämpfen. Die Schlüsselerkenntnis: technische Lösungen allein sind unzureichend. Community-Standards, transparente Bearbeitungsprozesse und menschliche Aufsicht bleiben essentiell.

"Ich denke, die Leute haben eine echte Leidenschaft für Fakten und für Neutralität," argumentierte Wales bei der SXSW London. "Auch wenn wir in einer Phase sind, in der dieses Konzept unter Beschuss steht. Wir werden einfach weitermachen."

Das Wikipedia-Modell legt nahe, dass die Verteidigung der Informationsintegrität im KI-Zeitalter erfordert:

  • Standards-first-Entwicklung: Redaktionelle Richtlinien vor der Implementierung von Technologie etablieren wie die Wikimedia Foundation es mit ihrem Strategieprozess getan hat

  • Community-Einbindung: Erfahrene Redakteure einsetzen, die wissen, was gute Quellen sind (wie der Erfolg des WikiProject AI Cleanup demonstriert)

  • Transparenz: Alle Bearbeitungen sichtbar und nachverfolgbar machen, um schnelle Identifizierung problematischer Inhalte zu ermöglichen

  • Human in the loop: KI nutzen, um Probleme zu markieren, nicht um Entscheidungen zu treffen, wie Wales' Tools zeigen

  • Kollaborative Verifikation: Quellen und Behauptungen mit mehreren Personen prüfen, unterstützt, aber nicht ersetzt durch KI-Tools

Was für die Zukunft geplant ist

Die Wikimedia Foundation plant, ihre KI-Strategie in den nächsten drei Jahren umzusetzen, mit jährlichen Überprüfungen, um sich an schnelle technologische Veränderungen anzupassen. Basierend auf den strategischen Prioritäten der Foundation steht die Stiftung vor einer grundlegenden Entscheidung, wieviele Ressourcen sie für die Nutzung von KI für Inhaltsgenerierung versus Inhaltsintegrität einsetzen will.

Die Foundation hat sich entschieden, Inhaltsintegrität zu priorisieren, und erkennt an, dass "neues enzyklopädisches Wissen nur in einem Tempo hinzugefügt werden kann, das Redakteure bewältigen können.” Mehr Investitionen in die Generierung von Inhalten würde ihre Kapazität überlasten.

Wales verfeinert weiterhin seine KI-Verifizierungstools, bleibt aber vorsichtig bei breiterer Implementierung. Das Ziel ist nicht, Wikipedias redaktionellen Prozess zu automatisieren, sondern Redakteuren bessere Tools zur Aufrechterhaltung von Genauigkeit und Neutralität zu geben.

"Wir wollen freundliche und nachdenkliche Menschen. Mir ist deine politische Haltung egal. Mir liegt daran, dass du aufmerksam bist, bereit bist, dich mit Argumenten auseinanderzusetzen, bereit bist, kollaborativ mit anderen zu arbeiten," sagte Wales bei der SXSW London. Wikipedias Zukunft im Ki-Zeitalter liegt darin, die kollaborative Bearbeitung zu verstärken, die sie erfolgreich gemacht hat, anstatt sie zu ersetzen.

Da Fake-Quellen immer raffinierter werden, könnte Wikipedias Kombination aus technischen Tools und der Wachsamkeit der Community essentiell werden, um die Informationsintegrität im Internet aufrechtzuerhalten. Wikipedia nutzt KI, um menschliches Urteilsvermögen zu unterstützen. Das bietet einen Ansatz auch für andere Plattformen und Medienunternehmen, die mit der Herausforderung kämpfen, Vertrauen im Zeitalter der künstlichen Intelligenz aufrechtzuerhalten.

Keep Reading

No posts found