Kann KI für Kinder sicher sein? – Mein Eindruck zu “KinderGPT”
Natürlich kann sie das – genauso wie eine Gabel für Kinder sicher sein kann. In beiden Fällen geht es vor allem darum, dass Kinder angeleitet werden mit dem jeweiligen “Instrument” umzugehen und dabei beaufsichtigt werden.
Ein Artikel von Christian Füller hat mich auf die App “KinderGPT” aufmerksam gemacht. Ein Chatbot, der speziell für Kinder (ab 4 Jahren) gedacht ist. Um mit dem Bild von der Gabel zu sprechen: eine stumpfe Kindergabel – oder vielleicht ein Löffel. Um mir ein vollständiges Bild zu machen, habe ich die App natürlich selbst getestet, dazu später mehr.
In einem kurzen Austausch betont ein führenden Mitarbeiter von KinderGPT, dass die App größten Wert auf Datenschutz lege und darüber hinaus nicht auf ein LLM-Modell beschränkt sei, sondern Kontextabhängig verschiedene Modelle nutze. Ob dieses optimale Ergebnis für Kinder nun wirklich relevant ist, möchte ich zumindest in Frage stellen – die Anfragen der Kinder dürften in den meisten Fällen eher einigen wenigen Themenfeldern (Wissensfragen, Texte schreiben, Bilder erstellen) zuzuordnen sein – ich gehe beispielsweise nicht davon aus, dass Kinder Fragen zu C++ Coding stellen werden. Datenschutz dagegen ist aus meiner Sicht tatsächlich ein sehr wichtiger Punkt, weshalb ich die Adressierung dieser Problematik durch KinderGPT positiv hervorheben möchte.

Mein Eindruck von Kinder GPT
Ich habe KinderGPT selbst getestet, um mir ein eigenes Bild zu machen. Man gibt sein Alter und seinen Namen ein und wählt anschließend einen Avatar – eine fiktive Gestalt mit der man Chatten möchte. Zur Wahl stehen z.B. griechische Götter wie Zeus, Athene oder Poseidon. Allesamt in einem sehr kindlichen Look mit großen Kulleraugen. Was bereits nach der ersten Nachricht auffällt: Wie wir es von den serviceorientierten, freundlichen Chatbots kennen, stellt der fiktive Charakter mit dem wir Chatten am Ende einer Nachricht stets eine Frage. Insbesondere jungen Kindern wird es durch die ständigen Rückfragen schwer fallen, sich von dem Chat zu lösen. Es droht die Gefahr, dass diese Form der Interaktion noch einmal stärker verfängt als die bekannten Mechanismen der Short-Video-Plattformen, denen bereits drogenähnliche Wirkungen auf das menschliche und vor allem auf das kindliche Hirn unterstellt werden.
Der Chatbot stellt Fragen zum Befinden, schlägt vor gemeinsam eine Geschichte anzuhören oder etwas zu malen. KinderGPT selbst schreibt auf der Produktwebsite: “Zusammen wachsen. Tauche ein in Deine Welt und nutze deinen KI-Begleiter zum lernen, chatten, generieren, phantasieren und lachen – alles in einer App und immer für Dich da.”
Was sich hier deutlich abzeichnet: wir sind im Bereich der AI Companions, also im Bereich von KI-Software, die Menschen primär Gesellschaft leisten soll. Wissensvermittlung tritt hinter die persönliche Bindung/Beziehung zu dem Chatbot zurück. Dass so etwas gefährlich sein kann, sehen wir an Menschen – darunter auch Kinder und Jugendliche – die sich in KI-Chatbots “verlieben” und sich so mittelfristig von ihrem sozialen Umfeld isolieren.
Auch der stumpfe Plastiklöffel ist problematisch, wenn das Kind ihn verschluckt. Daher gilt auch hier ein wichtiger Grundsatz: Kinder sollten KI niemals unbeaufsichtigt nutzen – auch keine “Kinder KI”, wenn es sowas denn überhaupt gibt.
Quellen: kindergpt.com
Bildquellen: Joachim Niehus auf Pixabay, kindergpt.com