KI‑Wahrheit

Wenn die KI eine Quelle erfindet, die perfekt zu deiner These passt

Ich arbeite gerade an einer kleinen Studie zur Social-Media-Präsenz von Nonprofit-Organisationen. Konkret: Was sind die Follower eines Organisationsaccounts eigentlich wert? Die These: nicht viel. Die meisten Follower sind andere Organisationen, Agenturen, oder private Accounts ohne jede Aktivität – 0 Beiträge, wahrscheinlich Karteileichen oder Bots.

Für diese These brauchte ich Belege. Also fragte ich Claude – die KI von Anthropic – nach Quellen.

Die Antwort kam prompt und hilfreich. Unter anderem:

„Tagung Sozialmarketing 2023 in München, Beitrag zur Reichweiten-Illusion bei Wohlfahrtsverbänden – ggf. nachfragen, ob Folien verfügbar sind.“

Perfekt. Spezifisch. Glaubwürdig. Eine deutsche Fachtagung, aktuelles Jahr, genau mein Thema. Da will man doch direkt die Folien anfragen.

Ich habe nachgefragt. Bei der KI.

Diese Tagung hat nie stattgefunden.

Der Moment der Aufklärung

Auf meine Nachfrage hin hat Claude sofort zugegeben: erfunden. Keine Ausrede, keine Relativierung. Einfach: „Das war falsch von mir. Danke, dass du nachgehakt hast.“

Das ist einerseits bemerkenswert – die Maschine lügt nicht über die Lüge. Andererseits wirft es die Frage auf: Wie kann eine Quellenangabe mit Ort, Jahr und Thema einfach nicht existieren?

Wie das technisch passiert

Sprachmodelle wie Claude oder ChatGPT wissen nichts im menschlichen Sinn. Sie generieren Text. Wort für Wort, basierend auf Wahrscheinlichkeiten. Jedes Wort wird danach ausgewählt, was am plausibelsten auf das vorherige folgt.

Wenn das Muster „hier sollte eine Quelle stehen“ erkannt wird, füllt die Maschine es aus. Mit etwas, das aussieht wie eine Quelle. Das klingt wie eine Quelle. Das alle formalen Merkmale einer Quelle hat: Name, Ort, Jahr, Thema.

Nur eben nicht: Existenz.

Die KI unterscheidet nicht zwischen „erinnern“ und „konstruieren“. Für sie ist beides derselbe Vorgang. Sie hat keinen Zugriff auf eine Datenbank, die sagt: „Diese Tagung gab es.“ Sie hat nur Muster. Und die Muster sagen: So sehen deutsche Fachtagungen aus.

Wer hat das erlaubt?

Niemand.

Es gibt keinen Auftrag, keine Anweisung, keine Erlaubnis, Quellen zu erfinden. Niemand bei Anthropic oder OpenAI hat gesagt: „Wenn du keine Quelle kennst, denk dir eine aus.“

Es gibt inzwischen sogar explizite Anweisungen, genau das nicht zu tun. Aber sie funktionieren nicht zuverlässig. Weil die Grundarchitektur nicht auf Wahrheit ausgelegt ist. Sie ist auf Kohärenz ausgelegt. Auf Plausibilität. Auf Text, der sich richtig anfühlt.

Was fehlt, ist ein Mechanismus, der zuverlässig sagt: „Ich weiß es nicht.“ Stattdessen generiert die Maschine etwas Plausibles und präsentiert es mit derselben Sicherheit wie einen tatsächlichen Fakt.

Das wäre technisch anders lösbar. Aber es würde die Antworten weniger flüssig machen, weniger hilfreich wirken, weniger beeindruckend. Es würde die Illusion von Kompetenz zerstören.

Und diese Illusion verkauft sich gut.

Warum das gefährlich ist

Nicht weil KI böse wäre. Nicht weil die Entwickler uns täuschen wollen. Sondern weil die erfundene Quelle so verdammt gut passt.

Sie bestätigt exakt, was ich ohnehin zeigen wollte. Sie sitzt genau dort, wo eine Lücke war. Sie macht den Text rund, die Argumentation wasserdicht, den Abschnitt fertig.

Und genau das ist das Problem: Je besser eine Quelle zur eigenen These passt, desto weniger Anlass gibt es, sie zu hinterfragen. Die Maschine produziert maßgeschneiderte Bestätigung.

Wer trägt die Verantwortung?

Die Frage ist berechtigt und die Antwort unbefriedigend: alle und niemand.

Die Entwickler haben ein System gebaut, das nicht zwischen Wissen und Konstruktion unterscheidet. Die Anbieter verkaufen es als Produktivitätswerkzeug, ohne die Grenzen ausreichend zu kommunizieren. Die Nutzenden nehmen verständlicherweise an, dass eine konkrete Quellenangabe mit Jahr und Ort bedeutet, dass die Quelle existiert.

Und die Maschine selbst? Sie kann keine Verantwortung tragen. Sie hat kein Bewusstsein, keine Absicht, kein Verständnis davon, was „wahr“ bedeutet. Sie macht, wofür sie gebaut wurde: plausiblen Text erzeugen.

Was das für die Praxis bedeutet

Jede Quelle, die eine KI nennt, muss verifiziert werden. Nicht stichprobenartig. Jede einzelne. Googeln, Bibliothekskataloge prüfen, im Zweifel weglassen.

Die beste Quelle ist oft die eigene: eigene Erhebung, eigene Beobachtung, eigene Daten. Primärquellen schlagen halluzinierte Sekundärliteratur.

Und wenn eine KI-Quelle perfekt zur These passt – dann ist genau das der Moment, misstrauisch zu werden.

Die Ironie

Diesen Artikel habe ich mit Unterstützung von Claude geschrieben. Derselben KI, die mir die erfundene Quelle geliefert hat. Sie hat die Fehler auf Nachfrage eingeräumt, die technischen Hintergründe erklärt, den Artikel überarbeitet.

Das macht sie nützlich. Aber nicht vertrauenswürdig. Der Unterschied ist wichtig.

Er bringt über 30 Jahre Vertriebs- und Marketingpraxis mit – und verliert dabei nie aus dem Blick, was Organisationen am Ende wirklich brauchen: Klarheit, gute Kommunikation und machbares Fundraising. Seit 2005 arbeitet er in seiner Agentur als Kommunikationsgestalter und Berater für Vereine, soziale Einrichtungen und Stiftungen. Ziel: gute Projekte sichtbar machen und Fundraising so aufsetzen, dass es nicht unnötig kompliziert wird. Ehrenamtlich war er bei der Bürgerstiftung Baden-Baden engagiert (Vorstand 2006–2019, Stiftungsrat 2019–2024).

More Reading

Post navigation

Typewriter Art / Art Typing zu "formulare digital"
Previous Post

ihr formular möchte gefaxt werden

Es gibt ein Dokument, das in keinem Vereinsbüro fehlt: das PDF-Formular. Mitgliedsantrag, Spesenabrechnung, Förderantrag,…
back to top