Google unter Beschuss: Geld für Werbung von KI-Apps, die nicht einvernehmliche Nacktbilder erstellen

Neue Enthüllungen zeigen, wie Google von nicht einvernehmlichen Deepfake-Nacktbildern profitiert

Google gerät in die Kritik, weil es Geld dafür nimmt, KI-Apps zu bewerben, die nicht einvernehmliche Deepfake-Nacktbilder erstellen. Neue Recherchen von 404 Media enthüllen dies.

Wie von 404 aufgedeckt wurde, zeigen Suchanfragen nach Begriffen wie ‚Auszieh-Apps‘ und ‚beste Deepfake-Nacktbilder‘ bezahlte Anzeigen für Websites, die Dienste wie den ‚NSFW AI Image Generator‘ anbieten und andere leicht zugängliche KI-Tools, mit denen explizite Bilder echter Menschen ohne deren Einwilligung erstellt werden können.

Google hat breite Kritik dafür geerntet, dass es nicht gelungen ist, die Verbreitung von KI-Deepfakes echter Personen in seinen Suchergebnissen einzudämmen. In Reaktion auf diese Kritik kündigte Google erst letzte Woche an, bestehende Suchrichtlinien zu erweitern, um ‚Menschen zu helfen‘, die mit ’nicht einvernehmlichem sexuell explizitem Fake-Inhalt‘ konfrontiert sind.

Aber laut den Recherchen von 404 besteht Googles Deepfake-Problem auch auf der Werbeseite. Dort profitiert der Suchriese aktiv von beworbenen Beiträgen für einige der genau gleichen KI-Dienste, die dazu beitragen, dass böswillige Akteure aufdringliche und nicht einvernehmliche explizite Inhalte erstellen können.

Google hat angeblich Maßnahmen ergriffen, um die spezifischen Anzeigen und Websites zu entfernen, die von den Journalisten von 404 markiert wurden. Ein Sprecher von Google teilte dem Outlet mit, dass Dienste zur Erstellung synthetischer sexueller oder nackter Inhalte ‚davon ausgeschlossen sind, über eine unserer Plattformen Werbung zu schalten oder Einnahmen über Google Ads zu generieren‘.

Laut 404 fügte der Sprecher hinzu, dass der Suchriese ‚dieses Problem aktiv untersucht und Werbetreibende dauerhaft sperren wird, die gegen unsere Richtlinie verstoßen und alle ihre Anzeigen von unseren Plattformen entfernen wird.‘ Aber laut 404 ging der Sprecher nicht auf Fragen ein, warum Werbetreibende überhaupt Google bezahlen durften, um Links für Suchbegriffe wie ‚Auszieh-App‘ zu bewerben – das scheint der Kern des Problems zu sein.

Deepfake-Pornografie ist schädlich für ihre Opfer. Mit leicht zugänglichen AI-Deepfake-Tools in öffentlichen Händen gibt es eine neue Welle besorgniserregender Vorfälle bei der Erstellung nicht einvernehmlicher Fake-Nacktbilder – insbesondere Fälle in Mittel- und Oberschulen, wo Schulsysteme und Strafverfolgungsbehörden damit kämpfen müssen.

Was Google betrifft – die Website, auf der die meisten Menschen nach Informationen suchen -, hat sie offensichtlich noch einen langen Weg vor sich in ihrem Bemühen, den steigenden Trend von Deepfakes im Web einzudämmen – ganz zu schweigen von der Auffindbarkeit der Werkzeuge, die offensichtlich dafür entwickelt wurden.

Teile den Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert