7 KI-Modelle, die Journalisten helfen, Desinformation zu erkennen
Desinformation bleibt eine der größten Bedrohungen für die Demokratie. Künstliche Intelligenz wird zunehmend als Waffe im Kampf gegen Fake News eingesetzt. In diesem Artikel stellen wir sieben KI-gestützte Lösungen vor, die Journalist*innen dabei unterstützen, manipulierte Inhalte zu identifizieren, deren Herkunft zu prüfen und die Bevölkerung zu schützen.
1. DeFaktS: Erkennung mit erklärbaren Algorithmen
| Eigenschaft | Beschreibung |
| Ziel | Frühzeitige Erkennung von Desinformation in Messengern und Sozialen Medien |
| Technologie | Explainable AI (XAI), die Gründe für Manipulationsverdacht erklärt |
| Beispiele | Warnt vor Falschmeldungen in Telegram-Gruppen, zeigt Warum-Begründungen an |
Das Forschungsprojekt DeFaktS trainiert KI-Modelle iterativ: Syntaktische und psychologische Merkmale (z.B. emotionale Polarisierung oder inhaltliche Widersprüche zwischen Titel und Text) fließen ein . Besonders innovativ ist die „XAI“-Komponente, die Journalist*innen entlarvt, worauf die Verdachtsfälle beruhen – etwa auf unbestätigten Quellen oder logischen Brüchen .
Tipp für Journalistinnen: Nutzen Sie DeFaktS in Messenger-Diensten, um Desinformation vor Verbreitung zu stoppen.
2. FANDANGO: Analyse von Bildern und Texten
| Eigenschaft | Beschreibung |
| Ziel | Aufdeckung manipulierter Bilder und tiefenfalscher Videos |
| Technologie | Kombination aus maschinellem Lernen und NLP für Textinhalte |
| Beispiele | Erkennung gefälschter Klima-Prognosen oder Wahlkampf-Kampagnen |
Im EU-Forschungsprojekt FANDANGO wurde gezeigt, dass KI zwar Anhaltspunkte liefert, aber menschliche Expertise zwingend notwendig bleibt . Das Projekt klärt Journalist*innen etwa darüber auf, welche Stilmittel (z.B. reißerische Überschriften) Desinformation angeboten werden können.
3. defalsif-AI: Multimodaler Inhaltsscanner
| Eigenschaft | Beschreibung |
| Ziel | Prüfung von Videos, Fotos und Texten auf technische Manipulationsmerkmale |
| Technologie | Analyse von Metadaten, Bildkomposition und Sprachmuster |
| Beispiele | Entlarvung von gefälschten Pressmitteilungen oder Deepfake-Interviews |
Das österreichische Tool defalsif-AI bietet eine benutzerfreundliche Oberfläche. Userinnen können Dateien hochladen oder URLs eingeben – die KI prüft automatisch, ob es sich um generierte oder bearbeitete Inhalte handelt .
| Stärke | Schwäche |
| Erkennt technische Hinweise | Kein 100%iger Schutz gegen neue Methoden |
4. noFake: KI-gestützte Crowdsourcing-Lösung
| Eigenschaft | Beschreibung |
| Ziel | Echtzeit-Erkennung von Desinformation in großen Textmengen |
| Technologie | Kombination aus GPT-4, Clustering-Algorithmen und Datenbanken |
| Beispiele | Filterung von Fake-Kampagnen zu Wahlthemen oder Pandemien |
Das Projekt noFake (Ruhr-Universität, CORRECTIV) nutzt eine Faktencheck-Datenbank mit über 3.000 Artikel. Besonders effektiv ist der CORRECTIV.Checkbot, der Zusammenfassungen von Faktenchecks automatisch generiert – dies spart Journalist*innen Zeit bei der Quellenrecherche .
5. vera.ai: Browser-Plug-in für Multimediaprüfung
| Eigenschaft | Beschreibung |
| Ziel | Erkennung von Bild-, Audio-, Video-Deepfakes |
| Technologie | KI-basierte Audio-Spectral-Analyse und Bildtexture-Erkenner |
| Beispiele | Prüfung von „Stimmenklonen“ oder gefälschten Protestfotos |
Die Deutsche Welle entwickelte vera.ai speziell für Krisenregionen, wo Manipulationen oft Menschenrechtsverletzungen verschleiern. Der Browser-Plug-in ist öffentlich einsehbar und wird von über 130.000 Nutzer*innen genutzt .
6. XAI-Technologien: Transparente Entscheidungsfahrten
| Eigenschaft | Beschreibung |
| Ziel | Nachvollziehbare Begründung von KI-Erkennungen |
| Technologie | Hybridmodelle aus NLP und maschinellem Lernen |
| Beispiele | Markierung von Falschmeldungen durch Einzelaufzählung fragwürdiger Stilmittel |
Beispielszenario: Bei einer Meldung zur Gaspreisentwicklung stellt XAI klar: „Achtung: Text erwähnt politische Schuldzuweisungen ohne Belege.“ .
7. IBM-Methoden: Gegen KI-generierte Halluzinationen
| Eigenschaft | Beschreibung |
| Ziel | Filtern von ungenauen Angaben in KI-erstellten Texten („Halluzinationen“) |
| Technologie | Plausibilitätsprüfung durch Kreuzreferenzierung von Datenquellen |
| Beispiele | Entlarvung von Fake-Artikeln mit falschen Zitaten aus GPT-4 oder ChatGPT |
IBM-Forscher betonen, dass generative KI zwar Inhalte produziert, aber keine realen Fakten im Raum erfassen kann. Beispiel: Bei einer COVID-19-Meldung prüft IBM-KI, ob Zahlen mit offiziellen Statistiken übereinstimmen .
Herausforderungen bei KI-Modellen
| Problem | Lösung |
| KI vs. KI: Neue Manipulationsmethoden (Generative KI) umgehen bestehende Filter | Ständige Trainings-Datenbank-Aktualisierung |
| Menschliche Fehler: Unerfahrene Nutzer*innen interpretieren KI-Warnungen falsch | Schulungen zur kritischen Quellenprüfung |
| Transparenz: Dunkle KI-Entscheidungen stören das Vertrauen in Medien | XAI-Modelle mit klarer Begründungslogik |
Fazit: Kombination aus Technik und Medienkompetenz
KI-Modelle sind kein Allheilmittel, können aber taktische Zeitvorteile schaffen. Erfolgreiche Strategien setzen auf:
- Mensch-KI-Kollaboration: KI als Werkzeug für Erstfilterung, Sachverständige prüfen Alerts
- Medienbildung: Sensibilisieren der Bevölkerung für Stilmittel gezielter Desinformation – etwa ungeprüfte Zitate oder polarisierende Begriffe
- Kontinuierliche Anpassung: Regelmäßige Updates der KI-Trainingsdaten auf neueste Desinfomationsmuster (z.B. KI-erzeugte Deepfake-Videos ).
Trotz dieser Fortschritte bleibt die kritische Quellenprüfung unersetzlich – sowohl für Journalistinnen als auch für Bürgerinnen .
