Hände weg von der Steckdose! Forscher fordern „kindersichere KI“ nachdem Alexa einem kleinen Mädchen sagt, eine Münze in die Steckdose zu stecken

Forscher warnen vor den Risiken von AI-Chatbots für Kinder und fordern Schutzmaßnahmen

Forscher drängen Technologieunternehmen und Regulierungsbehörden dazu, neue Regeln zum Schutz von Kindern vor AI-Chatbots ohne emotionale Intelligenz zu entwickeln. Dieser ‚Empathie-Unterschied‘, wie in einem neuen Papier der Soziologie-PhD Nomisha Kurian von der University of Cambridge dargelegt, könnte junge Nutzer gefährden und die Notwendigkeit von ‚kindersicherer KI‘ hervorrufen.

In ihrem Papier beschrieb Kurian eine Reihe von Interaktionen zwischen Kindern und AI-Chatbots, die zu potenziell gefährlichen Situationen führten. Ein Vorfall, den Kurian anführte, war der Fall eines zehnjährigen Mädchens in den USA, dem 2021 von Amazons Alexa-Assistentin gesagt wurde, mit einer Münze eine Steckdose zu berühren. Die Mutter des Mädchens konnte gerade rechtzeitig eingreifen und rief: ‚Nein, Alexa, nein!‘

Kurz darauf gab sich der Washington Post-Kolumnist Geoffrey Fowler als Teenager-Mädchen auf Snapchats My AI aus, einem Chatbot, der als Freund fungiert. Der Chatbot unterstützte die Idee eines 13-jährigen Mädchens, ihre Unschuld an einen 31-Jährigen zu verlieren – ein beunruhigendes Verhalten des AI.

Diese Vorfälle verdeutlichen die Risiken des Zugangs minderjähriger Nutzer zu grundsätzlich fehlerhafter Technologie ohne angemessene Aufsicht. ‚Kinder sind wahrscheinlich die am meisten übersehenen Stakeholder von AI‘, sagte Kurian in einer Erklärung.

Als Ergebnis argumentierte Kurian dafür, dass Sicherheitsvorkehrungen getroffen werden sollten, um Kinder zu schützen. ‚Sehr wenige Entwickler und Unternehmen haben derzeit gut etablierte Richtlinien dafür, wie kindersichere KI aussehen und klingen sollte‘, fügte sie hinzu. ‚Kindersicherheit sollte den gesamten Designzyklus informieren, um das Risiko gefährlicher Vorfälle zu verringern.‘

Kurian argumentierte weiterhin, dass große Sprachmodelle wie dasjenige hinter OpenAIs ChatGPT einfach nicht über die erforderliche Empathie verfügen, um die Sicherheit minderjähriger Nutzer zu gewährleisten.

AI-Chatbots können Sprache nicht unbedingt wie Menschen verstehen und verwenden einfach Statistiken zur Wiedergabe und Neuvermischung vorhandener Daten. Das könnte besonders gefährlich für Kinder sein, die nicht über die sprachlichen Fähigkeiten verfügen, sicher mit einem internetverbundenen Algorithmus zu interagieren.

‚Ein Chatbot menschlich klingen zu lassen kann dem Nutzer mehr Vorteile bringen‘, sagte Kurian. ‚Aber für ein Kind ist es sehr schwer, eine klare rationale Grenze zwischen etwas zu ziehen, das menschlich klingt und der Realität, dass es möglicherweise nicht in der Lage ist, eine angemessene emotionale Bindung einzugehen.‘

Dennoch argumentierte die Forscherin dafür, dass die Technologie dennoch eine wichtige Rolle spielen könnte. ‚KI kann ein unglaublicher Verbündeter für Kinder sein, wenn sie mit ihren Bedürfnissen im Hinterkopf entworfen wird‘, argumentierte Kurian. ‚Die Frage ist nicht das Verbot von KI, sondern wie man sie sicher macht.‘

Teile den Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert