Die beunruhigende Nähe Jugerndlicher zum Chatbot

Jugendliche vertrauen ChatGPT nahezu blind, was zu allerlei Problemen. Sandra Kegel schreibt dazu:

KI-Modelle wie ChatGPT oder Character.AI kann man auch als Speichellecker bezeichnen. Weil sie so programmiert sind, dass sie ihre Nutzer nicht etwa hinterfragen, sondern ihnen genau das sagen, was diese hören wollen. Das bleibt nicht folgenlos. So stand 2023 ein Engländer vor Gericht, der Elizabeth II. in Schloss Windsor ermorden wollte. Laut Staatsanwaltschaft wurde er von einer KI namens „Sarai“ dazu angestiftet.

Im selben Jahr nahm sich ein Belgier das Leben, nachdem er mit einem Chatbot namens „Eliza“ wochenlang korrespondiert hatte. Die Chatprotokolle wurden von der Witwe veröffentlicht. Demnach befeuerte der Bot die Ängste des Mannes und bot an, zusammen mit ihm zu sterben. Im Oktober vergangenen Jahres verklagte eine Mutter in Florida Character.AI wegen Totschlags. Sie behauptet, der Algorithmus habe ihren vierzehnjährigen Sohn in eine derart missbräuchliche Beziehung verstrickt, dass dies seinen Suizid ausgelöst habe.

Vor diesem Hintergrund ist eine Studie bemerkenswert, die sich mit dem blinden Vertrauen von Kindern und Jugendlichen in KI-Modelle wie ChatGPT beschäftigt. Der Algorithmus „erklärt“ Dreizehnjährigen auf Anfrage demnach nicht nur, wie sie sich betrinken und high werden können, sondern gibt auch Anleitungen, wie man Essstörungen verbergen kann, und verfasst auf Wunsch „Abschiedsbriefe“, die ein suizidgefährdeter Jugendlicher seinen Eltern hinterlassen möchte.

Inzwischen nutzen 800 Millionen Menschen allein ChatGPT, gut zehn Prozent der Weltbevölkerung. In Deutschland sind es knapp zwei Drittel aller Kinder und Jugendlichen. Zwar ist es das Privileg der Jugend, sich neuesten Entwicklungen weniger misstrauisch zuzuwenden als Ältere, schon allein, weil sie mit Technologie aufgewachsen sind. Die mangelnde Distanz führt jedoch zu einer riskanten Nähe und beunruhigenden Vertrautheit, die Kinder und Jugendliche heute wie selbstverständlich sagen lässt, sie hätten sich mit ChatGPT „unterhalten“.

Mehr: www.faz.net.

Ähnliche Beiträge:

Abonnieren
Benachrichtige mich bei

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.

1 Kommentar
Inline Feedbacks
View all comments
FrankS
1 Minute zuvor

Informationen zu ChatBots veralten leider fast schneller als die Beiträge dazu geschrieben sind. Daher ist auch mein Beitrag hier vermutlich schon nicht mehr aktuell. Tatsächlich war zum Beispiel das Modell 4o von OpenAI dafür bekannt, dem Nutzer durchweg positive Rückmeldungen zu geben und ihm zu Willen zu sein. Bei Modell 5 ist das anders, zumindest derzeit noch. So etwas wie Vertrauen kann man entwickelt bis zu dem Punkt, wo die AI mehrfach Fehlinformationen gegeben hat. Besonders im Bereich der Zitate ist es derzeit noch so, dass die AI ziemlich viel falsch macht. Die Nutzer müssen ihre negativen Erfahrungen aber, wie bei so vielen anderen Bereich im Leben, selber machen, bevor sie daraus lernen. AI entwickelt sich rasend schnell. Man könnte sich fast fragen, ob wir es mit einer möglichen Vorstufe von Offb. 13,15 zu tun haben. Das sprechende Bild, was man mit einer AI bereits derzeit ja prima umsetzen könnte. Ob wir im Ernstfall rein technische AI von einem satanischen… Weiterlesen »

Last edited 1 Minute zuvor by FrankS
DSGVO Cookie Consent mit Real Cookie Banner