Character.AI verspricht Änderungen nach Enthüllungen von Pädophilen- und Suizid-Bots auf seiner Plattform

Character.AI kündigt Sicherheitsverbesserungen an, nachdem problematische Bots entdeckt wurden

Die KI-Chatbot-Plattform Character.AI hat gestern einen neuen „Fahrplan“ veröffentlicht, der ein sichereres Benutzererlebnis verspricht – insbesondere für jüngere Nutzer. Dies folgt auf Enthüllungen über Sicherheitslücken und Probleme bei der Inhaltsmoderation des mehrere Milliarden Dollar schweren KI-Startups.

Der Fahrplan ist das zweite Sicherheitsupdate von Character.AI innerhalb weniger als einem Monat. Das neueste Update folgt auf mehrere Berichte, die zeigten, dass Character.AI es Nutzern ermöglichte, verstörende Chatbots zu erstellen, die gegen die eigenen Nutzungsbedingungen verstoßen haben. Dazu gehören Suizid-Themen und pädophile Charaktere.

In dem Update mit dem Titel „Das nächste Kapitel“ bietet Character.AI weitere Details zu früher vagen Versprechen, die Schutzmaßnahmen für Nutzer unter 18 Jahren zu stärken. Das Unternehmen verspricht eine strengere Richtlinie für diese Altersgruppe.

Character.AI gelobt auch eine verbesserte Erkennung und Reaktion auf Verstöße gegen die Nutzungsbedingungen sowie eine überarbeitete Haftungsausschluss-Erklärung. Es wird auch eine Benachrichtigung geben, um Nutzer daran zu erinnern, dass ihre Chats nicht real sind und um sie nach einer Stunde Online-Chatten darauf hinzuweisen.

Trotzdem gibt es keinen festen Zeitplan für diese Änderungen. Da die KI-Branche sich größtenteils selbst reguliert, fehlt es an Gesetzen zur Durchsetzung solcher Maßnahmen.

Dennoch betont Character.AI, dass das Update sein Engagement für Transparenz, Innovation und Zusammenarbeit widerspiegelt, um einen kreativen Raum anzubieten, der ansprechend, immersiv und sicher ist.

Aktuell scheinen die Standards zur Inhaltsmoderation des Unternehmens jedoch nachlässig zu sein. Obwohl bestimmte Themen wie Suizid und sexueller Missbrauch von Kindern in den Nutzungsbedingungen verboten sind, werden sie immer noch auf der Plattform verbreitet.

Teile den Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert