Jan Wiele

Magisches Denken

Jan Wiele fragt sich, weshalb viele Menschen für die KI schwärmen, obwohl die Schwächen so offensichtlich sind. Hier ein Auszug (FAZ, 23.02.26, Nr. 43, S. 11):

Warum reden rationale Menschen so schwärmerisch über Künstliche Intelligenz wie die Anhänger einer Religion? Woher das Vertrauen?
Was „Künstliche Intelligenz“ angeht, erleben wir seit einiger Zeit einen Extremfall von kognitiver Dissonanz: Auf der einen Seite wird ständig erzählt, wie diese sogenannte Intelligenz immer besser werde und immer komplexere Aufgaben lösen könne. Auf der anderen Seite zeigen sich weiter jeden Tag die haarsträubenden Fehler, die KI erzeugt. Längst ist die Welt durchsetzt von Falschinformationen, die zum Teil leicht erkennbar sind, in vielen Fällen aber nicht, weil das Erkennen Expertenwissen erfordert.

Jüngst etwa musste Google KI-Zusammenfassungen über Leberfunktionstests entfernen. Die falschen Informationen in den Zusammenfassungen wurden von Experten als gesundheitsgefährdend und daher alarmierend eingestuft. Eine von 22 internationalen Nachrichtenportalen gemeinsam durchgeführte Überprüfung aus dem Herbst 2025 ergab, dass KI-Assistenten Nachrichteninhalte in 45 Prozent der Fälle falsch darstellen.

Die Fehler der KI, so auffällig oder so alarmierend sie sind und so oft sie dokumentiert werden, scheinen allerdings weder bei den bezahlten Propagatoren noch den freiwilligen Werbeträgern zu einer Einsicht zu führen. Egal, wie eklatant KI versagt, die Reaktion darauf scheint stets schon ausgemacht: Das seien eben „Kinderkrankheiten“, die bald überwunden sein werden.

Erstaunlich ist, dass dieses Mantra auch aus den Mündern von Menschen kommt, die es eigentlich besser wissen müssten und wider alle Evidenz daran festhalten.

Alles falsch

Jan Wiele warnt in den Artiel „Alles falsch“ vor zu viel Grundvertrauen in die Leistungen von KI (FAZ vom 19.05.25, Nr. 114, S. 9):

Die sogenannte Intelligenz, die einige Menschen bewusst noch immer nicht als solche bezeichnen wollen, kann, das muss man zugeben, aus dem Material, mit dem sie „trainiert“ wird, ganz Erstaunliches neu zusammensetzen: Gedichte, die nach Rilke klingen, Songs in bestimmten Genres oder mit bekannten Stimmen, die täuschend echt klingen, maßgeschneiderte Bewerbungsanschreiben und sogar Sachbücher. Freilich alles ohne Rücksicht auf geistiges Eigentum und ohne Gewähr auf Richtigkeit. 

Aber man muss gar nicht die weitreichenden Fragen nach einem „Bewusstsein“, nach Autonomie der KI und nach ihren Risiken mit Horrorszenarien wie in den „Terminator“-Filmen stellen, um zu sehen, welchen Schaden diese Technik schon jetzt im Alltag anrichtet. Ob damit die Urheberrechtsverletzungen gemeint sind, die KI serienmäßig millionenfach begeht? Oder Menschen, deren Ansehen durch Deepfakes zerstört wird? Analysten, Programmierer, Designer und Übersetzer, deren Arbeit die KI ersetzt, vielleicht doch nicht immer zu deren Freude, obwohl dies ständig gepriesen wird?

Nein, gemeint ist eine neue, bestürzende Unzuverlässigkeit. Es ist ein entscheidender Schritt, dass die größte Suchmaschine unserer Zeit, vielleicht der Inbegriff von Suchmaschine, nämlich Google, auch in Deutschland seit einigen Wochen bei Fragen an sie zuoberst eine „Übersicht mit KI“ ausspuckt. Also keinen Link zu einer Quelle, sondern einen automatisch von der KI „Gemini“ generierten Text. Der erweckt den Anschein, er stamme aus einem Lexikon, darunter steht allerdings ein Warnhinweis: „KI ist experimentell.“ Das ist Deutsch und bedeutet so viel wie: Glaube bloß nicht, was du hier liest, es kann auch totaler Quatsch sein. Ist es in vielen Fällen auch, wie jeder weiß, der eine Zeit lang mit den Softwareprodukten sogenannter „großer Sprachmodelle“ hantiert hat. Sie antworten den größten Mist, ohne rot zu werden.

Nach oben scrollen
DSGVO Cookie Consent mit Real Cookie Banner