56 › Titelthema schreibt, sondern schreiben lässt. Zudem können Plagiate verbreitet werden, da ChatGPT keine Quellen zitiert, sondern diese paraphrasiert. Ein weiteres Risiko könnte sein, dass ChatGPT die Ausbildung von kritischem Denken und eigenständiger Problemlösungsfähigkeit eher behindert als fördert. Auch das kreative Schreiben und Denken könnte durch die smarte Nutzung solcher KIs eher vernachlässigt werden. Gerade in Deutschland überwiegt bei Debatten um KI und Digitalisierung oft das Negative, beispielsweise die Sorge um Datenschutz. Können Sie diese Sorgen nachvollziehen? Ich würde nicht sagen, dass das Negative in der Öffentlichkeit überwiegt, es gibt sowohl die Euphorie als auch die Dystopie. In unserer Studie zu den „Werten, Ängsten und Hoffnungen“ der Menschen im digitalen Zeitalter konnten wir beide Szenarien finden. Positiv wurde die Digitalisierung vor allem im beruflichen Kontext, negativ eher im Privaten empfunden. Was den Datenschutz anbelangt, so können wir froh sein, dass wir eine EU-weite Regelung haben und damit unsere Privatheit weitgehend geschützt werden soll. Mit der KI ChatGPT haben wir auch ein Datenschutzproblem: Persönliche Daten von Kindern und Jugendlichen landen auf amerikanischen Servern und werden für das Training der KI weiter genutzt. Es geht aus ethischer Sicht also darum, junge Nutzer:innen von KI dafür zu sensibilisieren, dass sie der KI nicht blind alles anvertrauen. Insbesondere „Smart Toys“/ vernetztes Spielzeug wird häufig als gefährliche Datenkrake dargestellt. Ist diese Sorge berechtigt? Meiner Meinung nach ist die Sorge durchaus berechtigt. Ein Beispiel dafür sind die Puppe „My Friend Cayla“, die in Deutschland verboten wurde, und „Hello Barbie“, die aber nicht auf dem deutschen Markt kam. Beide Puppen verfügen über ein Mikrofon, mit dem Fragen von Kindern aufgenommen werden können. Zudem sind sie mit dem Internet verbunden und senden die gestellten Fragen an die Server der Hersteller, um dann eine passende Antwort zurückzusenden. Eltern sollten in jedem Fall bei Smart-Toys vorsichtig sein. Kritikpunkte sind folgende: 1. Ungesicherte BluetoothVerbindung: Wenn kein Passwort zur Kopplung mit dem Smartphone benötigt wird, könnte jeder Smartphone-Besitzer in Reichweite auf das Spielzeug zugreifen und mit dem Kind Kontakt aufnehmen. 2. Identitätsdiebstahl: Sollten die Hersteller die Daten nicht gut sichern, können Kinder Opfer von Identitätsdiebstählen werden. Diese gestohlenen Identitäten können zum Beispiel für Bestellungen missbraucht werden. 3. Profilbildung und personalisierte Werbung: Smart-Toys bzw. deren Apps können den Namen und den Geburtstag des Kindes an den Anbieterserver senden, die Geräte-Identifikationsnummer des Smartphones könnte an Dritte weitergeben werden, z. B. Firmen, die auf Datenanalysen oder Werbung spezialisiert sind. Diese Debatte geht meist einher mit dem Ruf nach mehr Regulierung und besserem Kinder- und Jugendschutz. Inwiefern können Gesetze helfen, Kinder und Jugendliche vor den Risiken von KI zu schützen und auf welcher Ebene müssten diese vereinbart werden? Mit der neuen EU-KI-Verordnung werden ja die Risiken von KI adressiert. Wir müssen diese Gesetze aber auch anwenden. Genauso wichtig ist es, die KI-Kompetenz der Kinder und Eltern zu fördern. Ein Fach „Digitalkompetenz“ im Unterricht wäre eine ernstzunehmende Maßnahme, um diese wichtigen Fähigkeiten zu fördern. Bei den Risiken denke ich hier insbesondere an folgende (vgl. dazu auch jugendschutz.net): Generative KI erleichtert es, Identitäten vorzutäuschen, wodurch Anbahnungsversuche Erwachsener zu Kindern in sexueller Absicht, das sogenannte Cyber-Grooming, schwerer oder gar nicht mehr erkennbar werden. Ebenso können pornografische Bilder oder DeepFakes, als Bild oder Video, erstellt werden. Auch Missbrauchsmaterial auf Basis von echten Kinderfotos kann generiert werden. Durch die erleichterte Manipulation von Bildern und Videos, insbesondere die Fälschung von Gesichtern und Stimmen, können Kinder und Jugendliche schnell zur Zielscheibe von Cybermobbing werden. Kinder und Jugendliche tun sich besonders schwer, Fakes zu erkennen. Desinformation und damit deren schädliche Wirkung trifft Kinder und Jugendliche weitaus unvorbereiteter. Über jugendschutz.net hinaus sehe ich auch das Problem der Desorientierung. Kinder und Jugendliche suchen im Netz nach Hilfe und Beratung, sei es, wenn sie Probleme in der Schule, mit Freunden, mit ihrer Gesundheit, mit Mobbing oder mit ihren Eltern haben. In all diesen Konfliktlagen sind KIs mittlerweile mögliche Berater. Deren Ratschläge können aber hoch riskant sein. Stellen Sie sich nur den Fall vor, dass ein Kind einer KI seine Probleme mit den Eltern anvertraut und die KI dann dem Kind rät, die Eltern
RkJQdWJsaXNoZXIy MTcxMjA2