Die beunruhigende Nähe Jugerndlicher zum Chatbot
Jugendliche vertrauen ChatGPT nahezu blind, was zu allerlei Problemen. Sandra Kegel schreibt dazu:
KI-Modelle wie ChatGPT oder Character.AI kann man auch als Speichellecker bezeichnen. Weil sie so programmiert sind, dass sie ihre Nutzer nicht etwa hinterfragen, sondern ihnen genau das sagen, was diese hören wollen. Das bleibt nicht folgenlos. So stand 2023 ein Engländer vor Gericht, der Elizabeth II. in Schloss Windsor ermorden wollte. Laut Staatsanwaltschaft wurde er von einer KI namens „Sarai“ dazu angestiftet.
Im selben Jahr nahm sich ein Belgier das Leben, nachdem er mit einem Chatbot namens „Eliza“ wochenlang korrespondiert hatte. Die Chatprotokolle wurden von der Witwe veröffentlicht. Demnach befeuerte der Bot die Ängste des Mannes und bot an, zusammen mit ihm zu sterben. Im Oktober vergangenen Jahres verklagte eine Mutter in Florida Character.AI wegen Totschlags. Sie behauptet, der Algorithmus habe ihren vierzehnjährigen Sohn in eine derart missbräuchliche Beziehung verstrickt, dass dies seinen Suizid ausgelöst habe.
Vor diesem Hintergrund ist eine Studie bemerkenswert, die sich mit dem blinden Vertrauen von Kindern und Jugendlichen in KI-Modelle wie ChatGPT beschäftigt. Der Algorithmus „erklärt“ Dreizehnjährigen auf Anfrage demnach nicht nur, wie sie sich betrinken und high werden können, sondern gibt auch Anleitungen, wie man Essstörungen verbergen kann, und verfasst auf Wunsch „Abschiedsbriefe“, die ein suizidgefährdeter Jugendlicher seinen Eltern hinterlassen möchte.
Inzwischen nutzen 800 Millionen Menschen allein ChatGPT, gut zehn Prozent der Weltbevölkerung. In Deutschland sind es knapp zwei Drittel aller Kinder und Jugendlichen. Zwar ist es das Privileg der Jugend, sich neuesten Entwicklungen weniger misstrauisch zuzuwenden als Ältere, schon allein, weil sie mit Technologie aufgewachsen sind. Die mangelnde Distanz führt jedoch zu einer riskanten Nähe und beunruhigenden Vertrautheit, die Kinder und Jugendliche heute wie selbstverständlich sagen lässt, sie hätten sich mit ChatGPT „unterhalten“.
Mehr: www.faz.net.