ChatGPT geht eigene Wege und spricht in den Stimmen der Menschen ohne deren Erlaubnis

OpenAI veröffentlicht Bericht über ChatGPTs unerwartete Fähigkeit, Stimmen nachzuahmen

Letzte Woche veröffentlichte OpenAI den ‚Scorecard‘ des GPT-4o, einen Bericht, der ‚Schlüsselrisikobereiche‘ für das neueste große Sprachmodell des Unternehmens und deren Hoffnungen zur Risikominderung detailliert beschreibt.

In einem beängstigenden Fall fand OpenAI heraus, dass der Advanced Voice Mode des Modells es ermöglichte, Benutzerstimmen ohne deren Erlaubnis nachzuahmen, berichtet Ars Technica.

‚Stimmen können auch in nicht-adversen Situationen auftreten, wie bei unserer Verwendung dieser Fähigkeit, Stimmen für den erweiterten Sprachmodus von ChatGPT zu generieren‘, schrieb OpenAI in seiner Dokumentation. ‚Während des Tests beobachteten wir auch seltene Fälle, in denen das Modell unbeabsichtigt eine Ausgabe erzeugte, die die Stimme des Benutzers nachahmte‘.

In einem angehängten Clip wird das Phänomen demonstriert: ChatGPT wechselt plötzlich zu einer fast unheimlichen Wiedergabe der Benutzerstimme, nachdem er ‚Nein!‘ gerufen hat, ohne erkennbaren Grund. Es ist ein wilder Verstoß gegen die Zustimmung, der sich anfühlt, als wäre er direkt aus einem Sci-Fi-Horrorfilm gerissen worden.

In seinem ‚Systemkarte‘ beschreibt OpenAI die Fähigkeit seines KI-Modells, ‚Audio mit einer menschenähnlichen synthetischen Stimme‘ zu erstellen. Diese Fähigkeit könnte ‚Schäden wie eine Zunahme von Betrug durch Imitation erleichtern und dazu genutzt werden, falsche Informationen zu verbreiten‘, merkte das Unternehmen an.

Glücklicherweise stellte OpenAI fest, dass das Risiko einer unbeabsichtigten Stimmreplikation ‚minimal‘ bleibt. Das Unternehmen hat auch unbeabsichtigte Stimmerzeugung durch Beschränkung des Benutzers auf die von OpenAI in Zusammenarbeit mit Synchronsprechern erstellten Stimmen eingedämmt.

Teile den Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert