Technologie

7 KI-Modelle, die Journalisten helfen, Desinformation zu erkennen

Desinformation bleibt eine der größten Bedrohungen für die Demokratie. Künstliche Intelligenz wird zunehmend als Waffe im Kampf gegen Fake News eingesetzt. In diesem Artikel stellen wir sieben KI-gestützte Lösungen vor, die Journalist*innen dabei unterstützen, manipulierte Inhalte zu identifizieren, deren Herkunft zu prüfen und die Bevölkerung zu schützen.

1. DeFaktS: Erkennung mit erklärbaren Algorithmen

Eigenschaft Beschreibung
Ziel Frühzeitige Erkennung von Desinformation in Messengern und Sozialen Medien
Technologie Explainable AI (XAI), die Gründe für Manipulationsverdacht erklärt
Beispiele Warnt vor Falschmeldungen in Telegram-Gruppen, zeigt Warum-Begründungen an

Das Forschungsprojekt DeFaktS trainiert KI-Modelle iterativ: Syntaktische und psychologische Merkmale (z.B. emotionale Polarisierung oder inhaltliche Widersprüche zwischen Titel und Text) fließen ein . Besonders innovativ ist die „XAI“-Komponente, die Journalist*innen entlarvt, worauf die Verdachtsfälle beruhen – etwa auf unbestätigten Quellen oder logischen Brüchen .

Tipp für Journalistinnen: Nutzen Sie DeFaktS in Messenger-Diensten, um Desinformation vor Verbreitung zu stoppen.

2. FANDANGO: Analyse von Bildern und Texten

Eigenschaft Beschreibung
Ziel Aufdeckung manipulierter Bilder und tiefenfalscher Videos
Technologie Kombination aus maschinellem Lernen und NLP für Textinhalte
Beispiele Erkennung gefälschter Klima-Prognosen oder Wahlkampf-Kampagnen

Im EU-Forschungsprojekt FANDANGO wurde gezeigt, dass KI zwar Anhaltspunkte liefert, aber menschliche Expertise zwingend notwendig bleibt . Das Projekt klärt Journalist*innen etwa darüber auf, welche Stilmittel (z.B. reißerische Überschriften) Desinformation angeboten werden können.

3. defalsif-AI: Multimodaler Inhaltsscanner

Eigenschaft Beschreibung
Ziel Prüfung von Videos, Fotos und Texten auf technische Manipulationsmerkmale
Technologie Analyse von Metadaten, Bildkomposition und Sprachmuster
Beispiele Entlarvung von gefälschten Pressmitteilungen oder Deepfake-Interviews

Das österreichische Tool defalsif-AI bietet eine benutzerfreundliche Oberfläche. Userinnen können Dateien hochladen oder URLs eingeben – die KI prüft automatisch, ob es sich um generierte oder bearbeitete Inhalte handelt .

Stärke Schwäche
Erkennt technische Hinweise Kein 100%iger Schutz gegen neue Methoden

4. noFake: KI-gestützte Crowdsourcing-Lösung

Eigenschaft Beschreibung
Ziel Echtzeit-Erkennung von Desinformation in großen Textmengen
Technologie Kombination aus GPT-4, Clustering-Algorithmen und Datenbanken
Beispiele Filterung von Fake-Kampagnen zu Wahlthemen oder Pandemien

Das Projekt noFake (Ruhr-Universität, CORRECTIV) nutzt eine Faktencheck-Datenbank mit über 3.000 Artikel. Besonders effektiv ist der CORRECTIV.Checkbot, der Zusammenfassungen von Faktenchecks automatisch generiert – dies spart Journalist*innen Zeit bei der Quellenrecherche .

5. vera.ai: Browser-Plug-in für Multimediaprüfung

Eigenschaft Beschreibung
Ziel Erkennung von Bild-, Audio-, Video-Deepfakes
Technologie KI-basierte Audio-Spectral-Analyse und Bildtexture-Erkenner
Beispiele Prüfung von „Stimmenklonen“ oder gefälschten Protestfotos

Die Deutsche Welle entwickelte vera.ai speziell für Krisenregionen, wo Manipulationen oft Menschenrechtsverletzungen verschleiern. Der Browser-Plug-in ist öffentlich einsehbar und wird von über 130.000 Nutzer*innen genutzt .

6. XAI-Technologien: Transparente Entscheidungsfahrten

Eigenschaft Beschreibung
Ziel Nachvollziehbare Begründung von KI-Erkennungen
Technologie Hybridmodelle aus NLP und maschinellem Lernen
Beispiele Markierung von Falschmeldungen durch Einzelaufzählung fragwürdiger Stilmittel

Beispielszenario: Bei einer Meldung zur Gaspreisentwicklung stellt XAI klar: „Achtung: Text erwähnt politische Schuldzuweisungen ohne Belege.“ .

7. IBM-Methoden: Gegen KI-generierte Halluzinationen

Eigenschaft Beschreibung
Ziel Filtern von ungenauen Angaben in KI-erstellten Texten („Halluzinationen“)
Technologie Plausibilitätsprüfung durch Kreuzreferenzierung von Datenquellen
Beispiele Entlarvung von Fake-Artikeln mit falschen Zitaten aus GPT-4 oder ChatGPT

IBM-Forscher betonen, dass generative KI zwar Inhalte produziert, aber keine realen Fakten im Raum erfassen kann. Beispiel: Bei einer COVID-19-Meldung prüft IBM-KI, ob Zahlen mit offiziellen Statistiken übereinstimmen .

Herausforderungen bei KI-Modellen

Problem Lösung
KI vs. KI: Neue Manipulationsmethoden (Generative KI) umgehen bestehende Filter Ständige Trainings-Datenbank-Aktualisierung
Menschliche Fehler: Unerfahrene Nutzer*innen interpretieren KI-Warnungen falsch Schulungen zur kritischen Quellenprüfung
Transparenz: Dunkle KI-Entscheidungen stören das Vertrauen in Medien XAI-Modelle mit klarer Begründungslogik

Fazit: Kombination aus Technik und Medienkompetenz

KI-Modelle sind kein Allheilmittel, können aber taktische Zeitvorteile schaffen. Erfolgreiche Strategien setzen auf:

  1. Mensch-KI-Kollaboration: KI als Werkzeug für Erstfilterung, Sachverständige prüfen Alerts
  2. Medienbildung: Sensibilisieren der Bevölkerung für Stilmittel gezielter Desinformation – etwa ungeprüfte Zitate oder polarisierende Begriffe 
  3. Kontinuierliche Anpassung: Regelmäßige Updates der KI-Trainingsdaten auf neueste Desinfomationsmuster (z.B. KI-erzeugte Deepfake-Videos ).

Trotz dieser Fortschritte bleibt die kritische Quellenprüfung unersetzlich – sowohl für Journalistinnen als auch für Bürgerinnen .