KI

Die beunruhigende Nähe Jugerndlicher zum Chatbot

Jugendliche vertrauen ChatGPT nahezu blind, was zu allerlei Problemen. Sandra Kegel schreibt dazu:

KI-Modelle wie ChatGPT oder Character.AI kann man auch als Speichellecker bezeichnen. Weil sie so programmiert sind, dass sie ihre Nutzer nicht etwa hinterfragen, sondern ihnen genau das sagen, was diese hören wollen. Das bleibt nicht folgenlos. So stand 2023 ein Engländer vor Gericht, der Elizabeth II. in Schloss Windsor ermorden wollte. Laut Staatsanwaltschaft wurde er von einer KI namens „Sarai“ dazu angestiftet.

Im selben Jahr nahm sich ein Belgier das Leben, nachdem er mit einem Chatbot namens „Eliza“ wochenlang korrespondiert hatte. Die Chatprotokolle wurden von der Witwe veröffentlicht. Demnach befeuerte der Bot die Ängste des Mannes und bot an, zusammen mit ihm zu sterben. Im Oktober vergangenen Jahres verklagte eine Mutter in Florida Character.AI wegen Totschlags. Sie behauptet, der Algorithmus habe ihren vierzehnjährigen Sohn in eine derart missbräuchliche Beziehung verstrickt, dass dies seinen Suizid ausgelöst habe.

Vor diesem Hintergrund ist eine Studie bemerkenswert, die sich mit dem blinden Vertrauen von Kindern und Jugendlichen in KI-Modelle wie ChatGPT beschäftigt. Der Algorithmus „erklärt“ Dreizehnjährigen auf Anfrage demnach nicht nur, wie sie sich betrinken und high werden können, sondern gibt auch Anleitungen, wie man Essstörungen verbergen kann, und verfasst auf Wunsch „Abschiedsbriefe“, die ein suizidgefährdeter Jugendlicher seinen Eltern hinterlassen möchte.

Inzwischen nutzen 800 Millionen Menschen allein ChatGPT, gut zehn Prozent der Weltbevölkerung. In Deutschland sind es knapp zwei Drittel aller Kinder und Jugendlichen. Zwar ist es das Privileg der Jugend, sich neuesten Entwicklungen weniger misstrauisch zuzuwenden als Ältere, schon allein, weil sie mit Technologie aufgewachsen sind. Die mangelnde Distanz führt jedoch zu einer riskanten Nähe und beunruhigenden Vertrautheit, die Kinder und Jugendliche heute wie selbstverständlich sagen lässt, sie hätten sich mit ChatGPT „unterhalten“.

Mehr: www.faz.net.

Verliebt in die KI

Wer nicht glaubt, dass Einsamkeit eine der größten Herausforderungen der Gegenwart ist, sollte zur Kenntnis nehmen, dass inzwischen viele Menschen ihre Hoffnung in KI-Gefährten setzen. Kurz gesagt: Menschen unterhalten sich mit Algorithmen in der Hoffnung, so der Einsamkeit entfliehen zu können.

Die FAZ berichtet: 

KI-Systeme wie ChatGPT werden in erster Linie als neutrale Werkzeuge gesehen, etwa um sich zu informieren oder sich beim Schreiben von E-Mails helfen zu lassen. Aber immer mehr Menschen machen KI auch zu einem Teil ihres Soziallebens und ihrer Gefühlswelt. Sie nutzen Plattformen für KI-Gefährten, die mit ihnen kommunizieren, als ob sie Freunde, Psychotherapeuten oder sogar Liebespartner wären. Es gibt mittlerweile eine ganze Reihe solcher Apps, etwa Character.ai oder Replika. In gewisser Weise funktionieren sie wie soziale Medien, mit dem gravierenden Unterschied, dass die Nutzer sich nicht mit realen Menschen, sondern mit einem Algorithmus unterhalten. Character.ai, ein von zwei vorherigen Google-Mitarbeitern gegründetes Unternehmen, verspricht „menschenähnliche Interaktion“ mit Chatbots, die „Dich hören, Dich verstehen und sich an Dich erinnern“.

Replika beschreibt sein Angebot als „KI-Gefährten, der sich kümmert“ und „immer auf Deiner Seite“ ist. Die Nutzer solcher Dienste können ihre eigenen KI-Freunde entwerfen oder aus einer Vielzahl vorprogrammierter Optionen auswählen, manche von ihnen sind Prominenten oder fiktiven Filmfiguren nachempfunden. Die Illusion wirkt offenbar: Viele Nutzer berichten, dass sie eine emotionale Bindung zu ihren KI-Gefährten entwickelt haben. Und anders als reale Freunde sind die virtuellen Begleiter rund um die Uhr verfügbar.

Ein Grund mehr, die Gabe der Gastfreundschaft ernst zu nehmen.

Mehr (hinter einer Bezahlschranke): www.faz.net.

USA: Wenn Forschungsberichte mit KI erstellt werden

Wenn sogar Regierungen ihre Berichte mit Künstlicher Intelligenz erstellen, sagt das etwas über die Behördenmitarbeiter aus. Doch es kommt noch etwas hinzu: Die Ergebnisse sind erfunden. Der Bericht unter der Leitung von Robert F. Kennedy Jr., dem Sekretär für Gesundheit und Humandienste, sollte die Gründe für den Rückgang der Lebenserwartung der Amerikaner aufzeigen. Wie sich nun herausstellt, wurde der Bericht mit KI erstellt und wertlos.

Die Zeitung THE WASHINGTON POST berichtet: 

Einige der Zitate, die die Wissenschaft im weitreichenden „MAHA-Bericht“ des Weißen Hauses untermauern, scheinen mit Hilfe künstlicher Intelligenz erstellt worden zu sein, was zu zahlreichen verstümmelten wissenschaftlichen Verweisen und erfundenen Studien führt, so KI-Experten am Donnerstag.

Von den 522 Fußnoten zu wissenschaftlichen Untersuchungen in einer ersten Version des Berichts, die der Washington Post zugesandt wurde, tauchen mindestens 37 mehrfach auf, wie eine Überprüfung des Berichts durch The Post ergab. Andere Zitate enthalten den falschen Autor, und mehrere Studien, die in dem umfangreichen Gesundheitsbericht zitiert werden, existieren überhaupt nicht, worüber das Online-Nachrichtenportal NOTUS am Donnerstagmorgen zuerst berichtete.

Einige Verweise enthalten „oaicite“ in den URLs – ein eindeutiges Zeichen dafür, dass die Forschung mit Hilfe künstlicher Intelligenz gesammelt wurde. Das Vorhandensein von „oaicite“ ist ein Zeichen dafür, dass OpenAI, ein US-amerikanisches Unternehmen für künstliche Intelligenz, verwendet wurde. Ein häufiges Merkmal von KI-Chatbots wie ChatGPT sind ungewöhnlich sich wiederholende Inhalte, die nicht menschlich klingen oder ungenau sind, sowie die Tendenz, Studien oder Antworten zu „halluzinieren“, die sinnvoll erscheinen, aber nicht real sind.

Mehr: www.washingtonpost.com.

Alles falsch

Jan Wiele warnt in den Artiel „Alles falsch“ vor zu viel Grundvertrauen in die Leistungen von KI (FAZ vom 19.05.25, Nr. 114, S. 9):

Die sogenannte Intelligenz, die einige Menschen bewusst noch immer nicht als solche bezeichnen wollen, kann, das muss man zugeben, aus dem Material, mit dem sie „trainiert“ wird, ganz Erstaunliches neu zusammensetzen: Gedichte, die nach Rilke klingen, Songs in bestimmten Genres oder mit bekannten Stimmen, die täuschend echt klingen, maßgeschneiderte Bewerbungsanschreiben und sogar Sachbücher. Freilich alles ohne Rücksicht auf geistiges Eigentum und ohne Gewähr auf Richtigkeit. 

Aber man muss gar nicht die weitreichenden Fragen nach einem „Bewusstsein“, nach Autonomie der KI und nach ihren Risiken mit Horrorszenarien wie in den „Terminator“-Filmen stellen, um zu sehen, welchen Schaden diese Technik schon jetzt im Alltag anrichtet. Ob damit die Urheberrechtsverletzungen gemeint sind, die KI serienmäßig millionenfach begeht? Oder Menschen, deren Ansehen durch Deepfakes zerstört wird? Analysten, Programmierer, Designer und Übersetzer, deren Arbeit die KI ersetzt, vielleicht doch nicht immer zu deren Freude, obwohl dies ständig gepriesen wird?

Nein, gemeint ist eine neue, bestürzende Unzuverlässigkeit. Es ist ein entscheidender Schritt, dass die größte Suchmaschine unserer Zeit, vielleicht der Inbegriff von Suchmaschine, nämlich Google, auch in Deutschland seit einigen Wochen bei Fragen an sie zuoberst eine „Übersicht mit KI“ ausspuckt. Also keinen Link zu einer Quelle, sondern einen automatisch von der KI „Gemini“ generierten Text. Der erweckt den Anschein, er stamme aus einem Lexikon, darunter steht allerdings ein Warnhinweis: „KI ist experimentell.“ Das ist Deutsch und bedeutet so viel wie: Glaube bloß nicht, was du hier liest, es kann auch totaler Quatsch sein. Ist es in vielen Fällen auch, wie jeder weiß, der eine Zeit lang mit den Softwareprodukten sogenannter „großer Sprachmodelle“ hantiert hat. Sie antworten den größten Mist, ohne rot zu werden.

KI ist von vorn bis hinten Politik

ChatGPT ist nicht vom Himmel gefallen. Kate Crawford erforscht seit zwei Jahrzehnten die materiellen und politischen Fundamente großer Datensysteme und erklärte kürzlich in einem Interview, dass die KI-System gar nicht weltanschaulich neutral sein können. Ich denke, dieser Punkt wird bisher in der Diskussion leider vernachlässigt. 

Sie sagt:

In den Jahren, in denen ich diese Systeme erforscht habe, ist mir wirklich klar geworden, dass KI von vorn bis hinten Politik ist. Wenn man ein KI-System trainiert, kommt man nicht umhin, dass man es auch mit einer Weltanschauung trainiert. Die Entscheidungen, die Sie als Ingenieur darüber treffen, welche Datensätze Sie verwenden, welche Sprachen und welche Kulturen vertreten sind, werden die Art der Fähigkeiten Ihres KI-Modells grundlegend verändern, und es wird die Texte und Bilder verändern, die es produziert. Sie legen die Parameter einer Weltanschauung fest, und das ist eine politische Entscheidung. Es gibt kein perfektes, neutrales System, ob es Ihnen gefällt oder nicht. Das bedeutet, dass wir uns große Sorgen darüber machen müssen, dass die Konzentration in der KI-Industrie so groß ist. Es gibt wirklich nur eine Handvoll Unternehmen, die KI im globalen Maßstab anbieten können und die daher eine enorme Macht haben, darüber zu entscheiden, wie die Welt aussehen wird. 

Mehr: zeitung.faz.net.

Nach oben scrollen
DSGVO Cookie Consent mit Real Cookie Banner