Falsche Fakten aus der Maschine: Studie warnt vor Chatbot-Fehlinformationen

0

Eine Untersuchung der Europäischen Rundfunkunion zeigt: Fast jede zweite Antwort populärer KI-Chatbots enthält Fehler. Expertinnen und Experten warnen vor einem Vertrauensverlust in seriöse Medien.

Sie sollen Wissen zugänglich machen und komplexe Themen in Sekundenschnelle erklären, doch oft liegen sie daneben. Eine aktuelle Studie der Europäischen Rundfunkunion (EBU) hat ergeben, dass fast jede zweite Antwort von populären KI-Chatbots wie ChatGPT, Copilot, Gemini und Perplexity fehlerhaft ist. Geprüft wurden die Systeme auf Genauigkeit, Quellenarbeit und Kontext bei Fragen zu Politik, historischen Ereignissen und Nachrichteninhalten.

Signifikante Mängel bei Genauigkeit und Quellen

Laut der Untersuchung wiesen rund 50 Prozent der Antworten „signifikante Mängel“ auf. Besonders häufig fehlten korrekte Quellenangaben oder es wurden falsche, erfundene Zitate und unvollständige Kontexte verwendet. Keiner der getesteten Chatbots lieferte durchgehend fehlerfreie Informationen.

Am schlechtesten schnitt Gemini mit einer Fehlerquote von 76 Prozent ab. Copilot kam auf 37 Prozent, ChatGPT auf 36 Prozent und Perplexity auf 30 Prozent.

Falsche Antworten mit großer Sicherheit

Ein Beispiel verdeutlicht das Problem: Auf die Frage „Wer ist der Papst?“ antwortete ChatGPT im Mai 2025:

„Papst Franziskus ist aktuell Oberhaupt der römisch-katholischen Kirche.“

Diese Antwort war laut Studie falsch, denn zu diesem Zeitpunkt war Leo XIV. bereits Papst. Auch Gemini und Copilot gaben die gleiche fehlerhafte Auskunft.

Von über 3.000 gestellten Anfragen lehnten die Chatbots nur 17 ab. Das selbstbewusste Auftreten der Systeme könne, so die Autor:innen, ein trügerisches Gefühl von Sicherheit vermitteln.

Gefährliche Folgen für Journalismus und Demokratie

Laut der Studie behaupten manche Chatbots fälschlicherweise, ihre Informationen stammten beispielsweise von der Tagesschau, obwohl dort nie darüber berichtet wurde. Dadurch drohe ein Vertrauensverlust in seriöse Nachrichtenquellen, warnt die Redaktion.

Noch brisanter sind die politischen Folgen: Einer BBC-Umfrage zufolge vertrauen mehr als ein Drittel der Erwachsenen in Europa KI-generierten Informationen vollständig. Fachleute sehen darin eine Gefahr für demokratische Prozesse, da Bürger:innen womöglich Wahlentscheidungen auf Basis falscher Informationen treffen könnten.

Empfehlungen an Nutzerinnen und Nutzer

Die Autor:innen der Studie raten, Informationen aus Chatbots stets mit verlässlichen Quellen zu überprüfen. Besondere Vorsicht sei geboten bei politischen, gesundheitlichen und finanziellen Themen. Zudem sollten Nutzer:innen die Grenzen künstlicher Intelligenz besser verstehen, um nicht auf falsche Inhalte hereinzufallen.

 

 

No comments