Gescheiterte Ermittlung: Polizei nutzt KI-gestützte Gesichtserkennung und schadet einem Mordfall

Cleveland Polizei sieht sich durch fragwürdige Technologie und mangelhafte Beweislage in der Kritik

In einer alarmierenden Wendung der Ereignisse zur Nutzung von KI-gestützter Gesichtserkennung hat die Polizei von Cleveland, Ohio, Schwierigkeiten, einen Mordfall zu klären. Der Cleveland Plain Dealer berichtet, dass Ermittler in der schwierigen Situation, den Mord an dem 33-jährigen Blake Story im Februar 2024 aufzuklären, über das Northeast Ohio Regional Fusion Center auf eine automatisierte Lösung zurückgriffen. Das Fusion Center, ein gemeinsames Kommandozentrum lokaler, staatlicher und bundesstaatlicher Behörden, verwendet eine Reihe neuer Technologien, darunter die umstrittene Software Clearview für die Gesichtserkennung, um die Arbeitslast der Beamten zu verringern.

Die Beamten erhofften sich von Clearview, Unterstützung zur Identifizierung eines Verdächtigen zu erhalten, nachdem sie Videoaufnahmen eines Tatverdächtigen ausgewertet hatten. Das Fusion Center identifizierte den Mann als Qeyeon Tolbert, was die Polizei sofort dazu veranlasste, ein „No-Knock“-Durchsuchungsbefehl für die Wohnung von Tolberts Freundin zu beantragen. Es folgten Festnahmen und Anklagen, jedoch auf der Basis fragwürdiger Beweismittel.

Der Diskurs um diese Technologie wird jedoch durch die Tatsache kompliziert, dass die Polizei ihre Identifikation nicht auf DNA, Zeugen oder andere handfeste Beweise stützte. Stattdessen basierte man auf einem Algorithmus, der CCTV-Material mit einem Bild von einer unbekannten Person abglich, und hielt dies für ausreichend, um zu handeln.

Ein Richter hat inzwischen die Beweise, die auf dieser fehlerhaften Identifizierung basieren, aus dem Verfahren ausgeschlossen, was zu einem Einspruch der Staatsanwaltschaft führte. Die rechtlichen Probleme für Clearview könnten erheblich sein, zumal eine Erklärung auf ihrer Website besagt, dass die Software keine Garantien für die Genauigkeit ihrer Identifikationssuche bietet. Ironischerweise ist dieser Hinweis weniger sichtbar als die Angaben zu den mehr als 50 Milliarden Bildern in der Datenbank der Plattform.

Ein kritischer Bericht der Washington Post hat ergeben, dass in mindestens acht Fällen amerikanische Bürger allein aufgrund positiver Identifikationen durch Gesichtserkennungstechnologie zu Unrecht verhaftet wurden, und in jedem dieser Fälle handelte es sich um Schwarze. Dies wirft die Frage auf, ob die Polizei, auch ob verunsichert durch eine übermäßige Technik-Affinität, die Grenzen der personenbezogenen Ermittlung überschreitet und voreilige Entscheidungen trifft.

Die American Civil Liberties Union (ACLU) warnt, dass auch wenn die Polizei angehalten wird, zusätzliche ermittlungstechnische Schritte zu befolgen, dies die Unzuverlässigkeit der Ergebnisse noch verschärfen kann. Während Technologieunternehmen mit zunehmendem Augenmerk darauf abzielen, innovative Einsatzmöglichkeiten zu finden, bleibt die Verantwortung für die Fehlerquote nicht nur bei den Strafverfolgungsbehörden, sondern bedarf auch einer kritischen Überprüfung durch die Justiz und die Technologieanbieter selbst. Der aktuelle Vorfall zeigt deutlich: Die Nutzung von KI in der Strafverfolgung sollte nicht leichtfertig erfolgen und ist von entscheidender Bedeutung für das Vertrauen in die Gerechtigkeit.

Teile den Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert