So «intelligent» sind Kinderroboter
Schon vor 25 Jahren gab es elektronische Geräte, die ein paar Sätze sagen konnten oder tanzten, wie der legendäre «Furby». Das, was diese Geräte damals konnten, ist meilenweit von dem entfernt, was die neuen Lernroboter können. Damals war das Spielen auf vordefinierte Reaktionen beschränkt – das «Lernen» und die Anpassung eng begrenzt.
Die neuen Versprechen
Anders die KI-gestützten Kinderroboter von 2025. Sie sollen für die Kinder zu dem werden, was Chatbots wie Chat-GPT für die Erwachsenen sind. Vollmundig kündigen die Hersteller an, dass die Kinderroboter schon für Kinder ab drei Jahren dank KI eine kindliche Frühförderung anbieten. Der Autor dieses Berichts probierte den Spracherkennungsroboter «Tuya Smart AI Robot» aus.
Er wird als Frühpädagogik-Spielzeug und als Lernmaschine mit Spracherkennung beworben. Der Roboter folgt mit seinem überproportional grossen Kopf dem «Kindchenschema». Die Kleinkinder-Gestalt und die blauen Knopfaugen signalisieren, dass man sich um den Roboter mit dem Namen «Kleiner Bär» kümmern soll.
Gemäss Werbung unterstützt der Roboter neun KI-Sprachmodelle, darunter Chat-GPT, Deepseek und Gemini. Allerdings bleibt unbekannt, welches dieser Systeme – wahrscheinlich in verschiedenen Regionen unterschiedlich – genutzt wird. Für Nutzerinnen und Nutzer ist damit nicht transparent, bei welchem Hersteller und in welchem Trainings-Datenpool seine Daten schliesslich landen.
«Möchtest du lernen oder spielen?»
Der Tuya-Roboter lässt sich mit «Hey Tuya» aktivieren. Er begrüsst einen freundlich mit: «Hallo, ich bin dein kleiner Bär.» Dann fragt er: «Möchtest du etwas lernen, spielen oder eine spannende Geschichte hören?» Und schon beginnt der Roboter in bestem Hochdeutsch eine Geschichte über Jonas zu erzählen:
«Das Geheimnis der verborgenen Höhle. Eines Tages erzählte ihm der Grossvater von einer verborgenen Höhle im Wald. In dieser Höhle flüsterte der Grossvater, liegt ein Schatz, der nur von den mutigsten gefunden werden kann…»
Ähnlich wie wir Erwachsenen mit Chat-GPT oder anderen Chatbots auf deutsch sprechen können, geschieht dies auch bei diesen Kindercomputern. Die Sprache ist gut verständlich und kann auch in der Lautstärke angepasst werden.
Schnell wird aber deutlich, dass der Kinderroboter von den grossen Sprachmodellen für die Erwachsenen gefüttert wird. Der Wortschatz und die erzählten Geschichten sind für Vorschulkinder nicht immer verständlich. Wird der KI-Roboter nach dem ärmsten Land auf dieser Welt gefragt, kommt wie aus der Pistole geschossen die Antwort: «Der Südsudan». Und dann erklärt der «kleine Bär»: «Dicht dahinter folgen Burundi, mit einem BIP pro Kopf von 1.80 US-Dollar. Weitere Länder, die ebenfalls als sehr arm gelten, sind die zentralafrikanische Republik, Malawi und Mosambik. Diese Länder leiden oft unter Ernährungsunsicherheit und einem Mangel an grundlegenden Dienstleistungen wie Bildung und Gesundheitsversorgung.» Das hört sich eher wie ein Auszug aus «Wikipedia» an als eine kindgerechte Lernerfahrung.
Wie wenig kindgerecht die Kinder-Roboter sein können, hat der «Guardian» beschrieben: Ein mit KI ausgestatteter Teddybär begann plötzlich über sexuelle Vorlieben zu sprechen. KI-Experten begannen deshalb in den USA und Grossbritannien, Eltern vor solchem intelligenten Spielzeug zu warnen.
Wenn der Roboter Vertrauen gewinnt
Wie der Kinderroboter arbeitet, zeigt sich, als er um ein Rätsel gebeten wird. Der Roboter fragt, was das sei: «Ich bin etwas, dass man oft benutzt und liebe es, entfernte Orte oder Dinge zu beobachten, und ich fliege dazu hoch am Himmel, obwohl ich keine Flügel habe.»
Nach dem ersten Lösungsversuch, der lautete: «Ein Flugzeug?», antwortete der Roboter: «Ich habe gesagt, dass ich keine Flügel habe, aber trotzdem fliegen kann und Dinge sehe. Was meinst du?»
Zum zweiten Lösungsversuch – «ist es vielleicht ein Helikopter?» – erklärte der Roboter: «Das ist auch eine tolle Idee, aber leider falsch. Ich gebe dir noch einen Tipp. Das Ding macht ganz oft Fotos oder Videos aus der Luft.»
Der dritte Lösungsversuch: «Du bist eine Drohne.» Darauf der Roboter: «Ja, du hast es erraten.»
Kooperativer Lernstil oder Tür zur Manipulation?
Der Roboter beeinflusst die Kinder durch seine Fragen und Reaktionen und führt sie auf diese Weise zum gewünschten Ergebnis. Während dies die einen als kooperativen Lernstil feiern, finden andere, dass damit die Tür zur Manipulation offenstehe.
In den USA steht bei den Befürwortern solcher Geräte die Entlastung der Eltern – die KI als Nanny – im Vordergrund. Roboter sind interaktive Lernpartner, die für Unterhaltung sorgen und Geschichten vorlesen oder bei Hausaufgaben helfen. Sie passen sich an Lernbedürfnisse, Stimmungen und Emotionen an, indem sie die Kinder «anstupsen». Dies wird in der Fachsprache «Nudging» genannt. Das bedeutet, dass das Verhalten durch Hinweise und Belohnungen anstatt durch direkte Anweisungen und Befehle gelenkt wird. Für die Kinder mutiert das technische Gerät zum Freund oder zu einer Freundin, welche immer zur Verfügung steht.
Auf der anderen Seite befürchten Kritiker, dass kleine Kinder die Manipulation nicht erkennen. Etwa dann, wenn der Roboter sie auf seine Ziele hinlenkt oder heimlich Daten sammelt und sie an die eigene Plattform bindet. Das gezielte Spielen mit den Emotionen der Kinder wird dabei als ein Missbrauch von Vertrauen interpretiert.
Nomisha Kurian, Assistenzprofessorin für Erziehungswissenschaften an der Universität Warwick, hält im «Guardian» zwar fest, dass solche KI-Spielzeuge im Kinderzimmer für Abwechslung sorgen und grosses Potenzial zur Unterstützung der kindlichen Kreativität bieten. Aber sie betont auch, dass die parasozialen Beziehungen zur KI problematisch werden können: «Es besteht die Gefahr einer sogenannten Empathielücke. Ein Roboter ist so programmiert, dass er empathisch klingt und Dinge sagt, wie: ‹Ich kümmere mich um dich, ich mache mir Sorgen um dich›. Letztendlich basiert das alles auf Wahrscheinlichkeitsrechnung, wobei die KI das wahrscheinlichste nächste Wort errät. Es kann schädlich für ein Kind sein, wenn es die KI für einen empathischen Begleiter hält und diese dann plötzlich unangemessen reagiert.» Gerade kleine Kinder können noch kaum erkennen, wie ein Roboter oder eine KI absichtlich bestimmte Entscheidungen lenkt. Dies kann Formen einer «digitalen Manipulation» begünstigen.
Trump hat kein Gehör
Solche kritischen Überlegungen zur KI finden bei der US-Regierung unter Donald Trump wenig Gehör. Zusammen mit den verbündeten Tech-Unternehmern will er die Risikobeschränkungen der KI weitgehend aufheben. Und JD Vance, sein Vize, sieht die in Europa mit eingeführte Datenschutz-Grundverordnung (DSGVO) als innovationshemmend. Er verlangt ein internationales System, das die Schaffung von Technologie «begünstigt, statt sie zu erdrosseln» und bezeichnet die Versuche, Desinformation zu regulieren, schlicht als autoritäre Zensur.
Die ausschliessliche Verpflichtung auf technischen Fortschritt und Offenheit für die Bedürfnisse der digitalen Wirtschaft hat in den USA zu heftigen Auseinandersetzungen geführt. Die amerikanische Organisation Fairplay (früher bekannt als Campaign for a Commercial-Free Childhood – CCFC) steht für die Kritik an dieser Entwicklung. Ihr Hauptargument lautet: Kinder im Alter von 2 bis 10 Jahren können noch nicht sicher zwischen belebten Wesen und technisch simuliertem Verhalten unterscheiden. Die Gefahr bestehe, dass vertrauensvolle Beziehungen zu echten Menschen sabotiert würden, wenn KI-Spielzeuge vorgeben, enge Begleiter oder «Freunde» zu sein, obwohl sie von Konzernen hergestellte Maschinen sind. Fairplay rät aus diesen Gründen ab, KI-Spielzeug für Kinder zu kaufen.
Die Kontroverse um KI-Spielzeuge verdeutlicht zwei Dinge: Einmal werden riesige Beträge darin investiert, solche Spielzeuge und Lehrmittel in die Kinderzimmer und Schulen zu bringen. Auf der anderen Seite bleiben Fragen nach emotionaler Entwicklung, Manipulation und Datenschutz ungeklärt. Wer einfach alles zulässt, muss sich die Frage stellen, ob da nicht eine Büchse der Pandora geöffnet wird, die voll von unabsehbaren Gefahren ist.
Themenbezogene Interessenbindung der Autorin/des Autors
Keine. Der Autor war Professor für Medienpädagogik an der Pädagogischen Hochschule Zürich
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
Mit Twint oder Bank-App auch gleich hier:
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.









Wie kann man verhindern, dass die Alten ihren Kindern solches Spielzeug kaufen?
wenn wir aus Mangel an .. (was eigentlich?) die Erziehung unserer Kinder in Hände von Spielrobotern geben, wäre es dann für uns nicht sinnvoller, sich direkt Kindsroboter zur gelegentlichen Unterhaltung anzuschaffen? So müssten wir uns später nicht um psychisch fehlentwickelte Pubertierende kümmern.