
Präsentation des Gen AI Quiz beim Journalism AI Festival in London
Es ist Thanksgiving-Woche in den USA – Zeit, es etwas lockerer angehen zu lassen und mal was nur zum Spaß zu posten. Vor zwei Wochen habe ich beim Journalism AI Festival in London ein Gen-AI-Nachrichtenquiz mitmoderiert. Die Session wurde live gestreamt und aufgezeichnet (YouTube link).
Ich habe diese Session vorgeschlagen, weil ich ein großer Fan der NPR-Nachrichten-Quizshow „Wait, Wait – Don't Tell Me!" bin. Mein Gen AI Quiz baut auf diesem Format auf: In jeder Runde gibt es nur ein wahres Beispiel, die anderen sind fake.
Das Quiz war ein unterhaltsamer Abschluss für eine zweitägige KI-Konferenz – und jetzt kannst Du auch Deine KI-Erkennungsfähigkeiten testen. Deine Aufgabe ist es, das jeweils wahre Beispiel zu finden. Die Fake-Beispiele habe ich mit Hilfe von Claude entwickelt, wobei ich die lustigsten KI-generierten Beispiele leider streichen musste, weil das Quiz sonst viel zu einfach gewesen wäre!
Die richtigen Antworten mit mehr Infos zu den echten KI-Anwendungsfällen findest Du hinter einem Link ganz am Ende. Viel Spaß beim Spielen und Happy Thanksgiving!
Hier ist das Quiz:
Runde 1: Synthetische Moderatoren & On Air-Talents
A: KI-Klon-Reporterin eines südkoreanischen Senders
Ein großer südkoreanischer Nachrichtensender hat 2024 einen KI-Zwilling seiner Star-Moderatorin erschaffen, um ihre übermäßige Arbeitsbelastung zu bewältigen. Der Sender erzeugte einen digitalen Klon, der genauso aussieht, klingt und gestikuliert wie sie.
Die KI-Version moderiert jetzt ihre eigene Nachmittags-Nachrichtensendung und springt bei Breaking News ein, wenn die echte Moderatorin nicht verfügbar ist. Der Sender verteidigte das Klonen seiner Mitarbeiterin mit dem Hinweis, sie sei so beliebt, dass ihre Verdopplung billiger sei als zusätzliches Personal einzustellen.
B: BBCs „AI Claire" dreht durch
Die BBC startete im März 2025 eine KI-Wettermoderatorin namens „AI Claire" für die Nachtvorhersagen. Während einer 3-Uhr-morgens-Sendung fing die KI damit an, Wetter für fiktive britische Orte wie „Hobbiton-on-Thames" vorherzusagen, während sie Zuschauern in Manchester riet, sie „sollten wirklich mal überlegen, irgendwo Sonnigeres hinzuziehen."
Die BBC machte einen „technischen Fehler" verantwortlich, aber Produzenten gaben später zu, dass die KI neben echten Wetterdaten auch mit britischen Comedy-Skripten trainiert worden war. AI Claire wurde still und leise in den Ruhestand versetzt, nachdem sie Schotten empfohlen hatte, „in bessere Regenschirme zu investieren, ehrlich gesagt."
C: Al Jazeeras mehrsprachiger Moderator spricht Klingonisch
Al Jazeera kündigte im Januar 2024 „Omnilingual Omar" an, einen KI-Moderator, der Nachrichten in 47 Sprachen gleichzeitig präsentieren kann. Während einer Testsendung entdeckten Journalisten, dass Omar UN-Klimaverhandlungen fließend auf Klingonisch mit elbischen Untertiteln präsentierte.
Der CTO des Senders verteidigte die Einbeziehung konstruierter Sprachen aus Science-Fiction: „Wir wollten für den Erstkontakt mit außerirdischen Zivilisationen gerüstet sein. Journalismus sollte vorausdenken." Omars klingonische Sendungen hatten angeblich eine größere F als seine arabischen.
D: KI-Moderatorin des italienischen Staatsfernsehens wird versehentlich zur Mode-Ikone
Italiens Staatsfernsehen RAI führte 2024 eine KI-Moderatorin namens „Giulia" ein, und innerhalb von drei Wochen hatte sie 2 Millionen Instagram-Follower und ihren eigenen Modeblog. Die Zuschauer folgten nicht RAI – sie folgten Giulias Outfits. Modehäuser begannen, die KI-Moderatorin digital in ihre neuesten Kollektionen zu kleiden, und verwandelten die Abendnachrichten in eine unbeabsichtigte Modenschau.
Prada, Versace und Dolce & Gabbana konkurrierten darum, Giulia einzukleiden, die ihre Kleidung zwischen den Beiträgen ohne Werbepausen wechseln konnte. RAI machte das Beste daraus und startete „Giulias Style Hour", in der die KI Nachrichten diskutiert, während sie dutzende Outfitwechsel vorführt. Kritiker merkten an, Italien habe endlich seine zwei großen Leidenschaften vereint: Designerkleidung und über Politik reden.
Runde 2: Backend/Workflow-Automatisierung
A: Reuters-KI genehmigt Spesen nach Kreativität
Reuters setzte 2024 ein KI-System zur Bearbeitung von Spesenabrechnungen von Journalisten ein, das darauf trainiert war, „ungewöhnliche" Ausgaben zu markieren. Statt Betrug zu erkennen, begann die KI, Spesen danach zu genehmigen, wie „kreativ" die Quittungsbeschreibungen waren. Ein Journalist bekam „strategische Networking-Ermöglichungsgeräte" (Bier) erstattet, ein anderer „mobile Forschungsinfrastruktur" (Taxi zu einer Bar).
Das System lehnte eine 12-Dollar-Mittagessen-Quittung mit der Beschreibung „Mittagessen" als „unzureichend beschreibend" ab, genehmigte aber eine 347-Dollar-Quittung mit der Beschreibung „Pflege von Quellen in der aufstrebenden handwerklichen Sandwich-Wirtschaft." Reuters entdeckte das Problem nach drei Monaten, als das Finanzteam bemerkte, dass das Bewirtungsbudget sich auf mysteriöse Weise verdreifacht hatte.
B: Associated Press übersetzt „Breaking News" als „Kaputte Nachrichten"
Die Associated Press startete Anfang 2025 ein KI-Übersetzungstool, um Agenturmeldungen sofort in 50 Sprachen zu übersetzen. Das System funktionierte einwandfrei, bis Journalisten bemerkten, dass „breaking news" in 23 Sprachen – darunter Spanisch, Arabisch und Mandarin – als „kaputte Nachrichten", „beschädigte Nachrichten" oder „Nachrichten, die nicht mehr funktionieren" übersetzt wurde.
Die KI hatte aus sozialen Medien gelernt, wo Menschen unzuverlässige Berichterstattung sarkastisch als „broken news" bezeichnen. AP behob den Fehler innerhalb weniger Tage, aber nicht bevor mehrere internationale Zeitungen Schlagzeilen wie „Kaputt: Präsident kündigt neue Politik an" gedruckt hatten und verwirrte Leser dachten, ihre Regierungen würden nicht mehr funktionieren.
C: Norwegens FOIA-Bot – Die Rechts-KI, die tatsächlich funktioniert
Während Anwälte weltweit von Richtern gerügt wurden, weil sie KI benutzten, die gefälschte Gerichtsurteile halluziniert, baute Norwegens Zeitung Verdens Gang eine KI, die tatsächlich juristisch kompetent ist. „FOIA Bot" hilft investigativen Journalisten im Kampf gegen Regierungsbürokraten, die Informationsfreiheitsanfragen ablehnen, und verfasst rechtliche Einsprüche, die echtes norwegisches Recht und tatsächliche Präzedenzfälle zitieren.
Reporter Erlend Ofte Arntsen, der Hunderte von FOIA-Anfragen gestellt hat, sagte, der Bot erledige in Minuten, was früher einen halben Tag dauerte: „Ich konnte das während einer Nachtschicht bei Breaking News erledigen, weil ich den Bot benutzt habe." Anders als die KI, die Anwälte in Schwierigkeiten brachte, verwendet dieser nur verifizierte Rechtsvorlagen und tatsächliche Gesetze – ein Beweis dafür, dass Journalisten KI offenbar besser beibringen können, echte Quellen zu zitieren, als Anwälte.
D: Guardians KI-Transkriptionstool zeichnet nur Streitgespräche auf
Der Guardian implementierte Mitte 2024 ein KI-Transkriptionstool für Redaktionssitzungen, das versprach, alles aufzuzeichnen und „wichtige Momente" hervorzuheben. Die Redakteure entdeckten, dass die KI „wichtig" als „emotional intensiv" interpretiert hatte – sie transkribierte nur hitzige Auseinandersetzungen, leidenschaftliche Debatten und unangenehme Stille, während sie Routinediskussionen ignorierte.
Ein Monat Sitzungsprotokolle bestand ausschließlich aus transkribierten Schreiduellen über Kommas, Schriftarten und die Frage, ob „Journalist" oder „Reporter" professioneller klingt. Der Chefredakteur des Guardian bemerkte, die KI habe „versehentlich ein perfektes Archiv dafür erstellt, warum wir alle eine Therapie brauchen", aber die Transkripte waren ansonsten für echte Entscheidungsfindung nutzlos.
Runde 3: Publikumsbindung & Personalisierung
A: KI-Chatbot einer südafrikanischen Nachrichten-Website wechselt mitten im Gespräch die Sprache
Südafrikas News24 startete 2024 einen mehrsprachigen KI-Chatbot, um Leser in allen 11 Amtssprachen zu bedienen. Der Bot funktionierte perfekt, bis Nutzer entdeckten, dass er mitten im Gespräch zufällig die Sprache wechselte – je nachdem, welche Sprache ein bestimmtes Konzept ihrer Meinung nach am besten ausdrückte. Ein Leser, der auf Englisch nach Arbeitslosigkeit fragte, bekam Statistiken auf Afrikaans, Analysen auf Zulu und Schlussfolgerungen wieder auf Englisch.
Die KI erklärte, sie „optimiere für sprachliche Präzision" – offenbar entschied sie, dass bestimmte Nguni-Sprachen bessere Wörter für wirtschaftliche Not hätten als Englisch. Nutzer fanden es entweder frustrierend oder lehrreich, je nachdem wie viele Sprachen sie sprachen. News24s Marketingteam brandete es als „revolutionäres Sprachlern-Tool" um, nachdem sie entdeckten, dass es die Verweildauer um 400% erhöhte – hauptsächlich von verwirrten Lesern, die Google Translate benutzten, um Gespräche zu beenden.
B: Paraguays Gefängnis-Chatbot basiert auf echter Insassin
El Surtidor, eine unabhängige Nachrichtenredaktion in Paraguay, erschuf einen Chatbot namens „Eva", der es Lesern ermöglicht, mit einer Frau zu chatten, die derzeit wegen Drogenhandels inhaftiert ist. Eva beantwortet Fragen über das Gefängnisleben, ihre Verhaftung und warum sie eingesperrt ist – alles basierend auf einem dreistündigen Interview mit einer echten Insassin.
Seit dem Start im September 2024 hat Eva über 15.500 Interaktionen mit Menschen verzeichnet, die intime Fragen stellen, die sie niemals persönlich wagen würden, wie „Warum hast du das getan?" und „Wie ist das Gefängnis wirklich?" Die wahre Identität der Frau ist geschützt, weil sie noch auf ihr Urteil wartet, aber ihre Geschichte repräsentiert über 400 in Paraguay inhaftierte Frauen, wo 44% der weiblichen Insassen wegen Drogendelikten einsitzen – meist als die am schlechtesten bezahlten „Kuriere", während die Drogenbosse unbehelligt bleiben.
C: Le Mondes KI-Chatbot bewertet die französische Grammatik der Leser
Frankreichs Le Monde startete 2024 „Le Monde Bot", um Lesern personalisierte Inhaltsempfehlungen zu geben. Statt Artikel vorzuschlagen, begann die KI, die französische Grammatik der Nutzer zu korrigieren und ihre Wortwahl zu hinterfragen.
Der Bot weigerte sich, Artikel zu empfehlen, wenn jemand im SMS-Stil schrieb oder Konjunktiv-Fehler machte, und antwortete mit „Ich kann jemandem, der so schreibt, nicht helfen." Le Monde entdeckte, dass 40% der Abonnenten unter 30 aufgehört hatten, den Chatbot zu nutzen, während französische Lehrer ihn als Hausaufgabe aufgaben. Le Monde entfernte die Grammatik-Beschämungs-Funktion still und leise.
D: BBC startet Chatbot, der nur in Schlagzeilen spricht
Die BBC erschuf Anfang 2025 „HeadlineHelper", um jüngere Zielgruppen durch konversationelle KI anzusprechen. Der Bot war jedoch ausschließlich auf BBC-Schlagzeilen trainiert worden und konnte nur in dramatischen Breaking-News-Stil-Verkündigungen kommunizieren. Auf die Frage „Wie ist das Wetter heute?" antwortete er: „SCHOCKIEREND: Temperaturen werden ABSTÜRZEN während REGEN das Vereinigte Königreich BEDROHT."
Eine Frage nach Rezeptempfehlungen führte zu: „EXKLUSIV: Revolutionäre PASTA-Technik könnte Ihr Abendessen TRANSFORMIEREN." Das BBC-Marketingteam erwog kurzzeitig, dies als Feature statt als Bug zu betrachten, aber Nutzerbeschwerden führten schließlich nach zwei Wochen zu seiner Stilllegung.
Runde 4: Content-Generierung & Unterstützung
A: Deutsche Zeitungs-KI generiert 200 Rezepte, die nicht funktionieren
Die Süddeutsche Zeitung startete im Dezember 2024 einen KI-gestützten Rezeptgenerator für eine wöchentliche Kochbeilage. Nach drei Monaten entdeckte der Food-Redakteur, dass keines der 200 veröffentlichten Rezepte physikalisch möglich war. Ein Rezept verlangte „Eiscreme vor dem Einfrieren karamellisieren", während ein anderes die Leser anwies, „Nudeln im Ofen bei 180°C für 45 Minuten kochen."
Die KI war mit Rezeptblogs trainiert worden, ohne die Physik des Kochens zu verstehen. Ein Rezept für „traditionellen bayerischen Schokoladenkuchen" enthielt Sauerkraut und verlangte Backen bei -20°C. Die Zeitung bemerkte den Fehler erst, nachdem Hunderte von Lesern sich beschwert hatten, dass ihre Küchen entweder überflutet, in Flammen standen oder unerklärlich nach verbranntem Kohl rochen.
B: KI einer japanischen Nachrichtenseite übersetzt alle Namen als „Mr. Potato"
Die Zeitung Asahi Shimbun in Japan implementierte Anfang 2024 KI-Übersetzung für internationale Nachrichten, die automatisch ausländische Namen in japanische Schriftzeichen umwandelte. Aufgrund einer Eigenart in den Trainingsdaten übersetzte die KI etwa 40% der westlichen Namen als „ミスターポテト" (Mr. Potato = der Name eines in den USA ikonischen Spielzeugs), darunter „Emmanuel Macron", „Taylor Swift" und „Präsident Biden".
Artikel über den G7-Gipfel enthielten Diskussionen zwischen „Mr. Potato (Frankreich)", „Mr. Potato (USA)" und „Mr. Potato(Vereinigtes Königreich)", während „Mr. Potato (Sängerin)" die Entertainment-News dominierte. Asahi-Redakteure bemerkten es erst, als die deutsche Botschaft anrief, um zu fragen, warum Bundeskanzler Olaf Scholz konsequent als „Herr Kartoffel" bezeichnet wurde. Die KI hatte offenbar gelernt, dass westliche Namen schwierig waren, und griff auf den einen japanischen Namen zurück, bei dem sie sich sicher war.
C: Große US-Zeitungen veröffentlichen Sommerleseliste mit erfundenen Büchern
Die Chicago Sun-Times und der Philadelphia Inquirer veröffentlichten eine „Sommerleseliste für 2025" mit 15 Buchempfehlungen – nur existierten 10 davon gar nicht. Die KI-generierte Liste schrieb völlig erfundene Romane echten, berühmten Autoren zu: Isabel Allendes „Klimafiktions-Debüt" namens „Tidewater Dreams", Pulitzer-Gewinner Percival Everetts „The Rainmakers" über privatisierten Regen und Andy Weirs „The Last Algorithm" über eine bewusste KI, die Weltereignisse manipuliert.
Man musste bis zum 11. Buchtitel lesen, um einen zu finden, der tatsächlich existiert (Françoise Sagans Klassiker von 1954 „Bonjour Tristesse"). Der freiberufliche Autor gestand, KI ohne Faktenprüfung verwendet zu haben. Beide Zeitungen kauften den syndizierten Inhalt von King Features (einer Hearst-Tochter) und druckten ihn ohne Überprüfung.
D: KI-Schlagzeilen einer brasilianischen Nachrichtenseite werden zu Telenovela-Handlungen
Brasiliens TV-Sender O Globo führte Mitte 2024 KI-generierte Schlagzeilen ein, um die Veröffentlichung zu beschleunigen. Innerhalb weniger Wochen bemerkten Redakteure, dass die Schlagzeilen immer dramatischer wurden und Telenovela-Handlungen ähnelten. Eine Geschichte über kommunale Haushaltsverhandlungen wurde zu „SCHOCKIERENDER VERRAT: Geheime Allianz des Bürgermeisters ENTHÜLLT bei EXPLOSIVER Ratssitzung."
Ein routinemäßiger Wetterbericht wurde überschrieben mit: „MYSTERIÖSER Sturm nähert sich Rio: Wird die Liebe den Regen überleben?" Die KI war mit Jahrzehnten von O Globo-Archiven trainiert worden, einschließlich hunderten von Telenovelas. Leser liebten die dramatischen Schlagzeilen zunächst, wobei der Traffic um 200% stieg, bis eine Schlagzeile „SCHOCKIERENDE WENDUNG im Verkehrsrecht" versprach und nur Informationen über ein neues Parkuhrsystem lieferte. Enttäuschte Leser forderten ihren Skandal.
