Jugendliche vertrauen ChatGPT nahezu blind, was zu allerlei Problemen. Sandra Kegel schreibt dazu:
KI-Modelle wie ChatGPT oder Character.AI kann man auch als Speichellecker bezeichnen. Weil sie so programmiert sind, dass sie ihre Nutzer nicht etwa hinterfragen, sondern ihnen genau das sagen, was diese hören wollen. Das bleibt nicht folgenlos. So stand 2023 ein Engländer vor Gericht, der Elizabeth II. in Schloss Windsor ermorden wollte. Laut Staatsanwaltschaft wurde er von einer KI namens „Sarai“ dazu angestiftet.
Im selben Jahr nahm sich ein Belgier das Leben, nachdem er mit einem Chatbot namens „Eliza“ wochenlang korrespondiert hatte. Die Chatprotokolle wurden von der Witwe veröffentlicht. Demnach befeuerte der Bot die Ängste des Mannes und bot an, zusammen mit ihm zu sterben. Im Oktober vergangenen Jahres verklagte eine Mutter in Florida Character.AI wegen Totschlags. Sie behauptet, der Algorithmus habe ihren vierzehnjährigen Sohn in eine derart missbräuchliche Beziehung verstrickt, dass dies seinen Suizid ausgelöst habe.
Vor diesem Hintergrund ist eine Studie bemerkenswert, die sich mit dem blinden Vertrauen von Kindern und Jugendlichen in KI-Modelle wie ChatGPT beschäftigt. Der Algorithmus „erklärt“ Dreizehnjährigen auf Anfrage demnach nicht nur, wie sie sich betrinken und high werden können, sondern gibt auch Anleitungen, wie man Essstörungen verbergen kann, und verfasst auf Wunsch „Abschiedsbriefe“, die ein suizidgefährdeter Jugendlicher seinen Eltern hinterlassen möchte.
Inzwischen nutzen 800 Millionen Menschen allein ChatGPT, gut zehn Prozent der Weltbevölkerung. In Deutschland sind es knapp zwei Drittel aller Kinder und Jugendlichen. Zwar ist es das Privileg der Jugend, sich neuesten Entwicklungen weniger misstrauisch zuzuwenden als Ältere, schon allein, weil sie mit Technologie aufgewachsen sind. Die mangelnde Distanz führt jedoch zu einer riskanten Nähe und beunruhigenden Vertrautheit, die Kinder und Jugendliche heute wie selbstverständlich sagen lässt, sie hätten sich mit ChatGPT „unterhalten“.
Mehr: www.faz.net.
Informationen zu ChatBots veralten leider fast schneller als die Beiträge dazu geschrieben sind. Daher ist auch mein Beitrag hier vermutlich schon nicht mehr aktuell. Tatsächlich war zum Beispiel das Modell 4o von OpenAI dafür bekannt, dem Nutzer durchweg positive Rückmeldungen zu geben und ihm zu Willen zu sein. Bei Modell 5 ist das anders, zumindest derzeit noch. So etwas wie Vertrauen kann man entwickelt bis zu dem Punkt, wo die AI mehrfach Fehlinformationen gegeben hat. Besonders im Bereich der Zitate ist es derzeit noch so, dass die AI ziemlich viel falsch macht. Die Nutzer müssen ihre negativen Erfahrungen aber, wie bei so vielen anderen Bereich im Leben, selber machen, bevor sie daraus lernen. AI entwickelt sich rasend schnell. Man könnte sich fast fragen, ob wir es mit einer möglichen Vorstufe von Offb. 13,15 zu tun haben. Das sprechende Bild, was man mit einer AI bereits derzeit ja prima umsetzen könnte. Ob wir im Ernstfall rein technische AI von einem satanischen… Weiterlesen »
Die Erlebniswelt vieler Kinder konzentriert sich auf KI und Tiktok. Dabei entwickeln sie die Aufmerksamkeitsspanne einer Stubenfliege, längeres Konzentrieren auf andere Sachen, wie lernen, basteln, Zeit mit Freunden ohne Smartphones zu verbringen, …, das ist oft nicht mehr drin. Nun ist es aber auch so, dass der Apfel bekanntlich nicht weit vom Stamm fault. AI-Systeme habe ich als manchmal nützliches Werkzeug kennengelernt, aber auch erst seit ein paar Wochen. „Zeichne mir ein Bild zum Kirchenlied xyz“, evtl. noch gepaart mit einer Stilangabe, bringt erstaunlich gute Ergebnisse hervor. Die Anweisung „Erstelle mir einen Liedtext zum Gedenktag für den Apostel …“ bringt ebenfalls Ergebnisse – ich muss dem System aber schon sagen, ob es für einen katholischen oder einem evangelischen Gottesdienst sein soll. Und hier und da noch nacharbeiten und kürzen. Es gab dann mal einen Textvorschlag, der mir gar nicht einleuchten wollte, dann habe ich nach biblischen Belegstellen dazu gefragt, die dann vom System nachgereicht worden sind: der AI-Vorschlag stimmte, war… Weiterlesen »