Die KI-Technologie wird so fortgeschritten, dass Forscher in einem neuen Papier argumentieren, dass es einen besseren Weg geben muss, um zu überprüfen, ob eine Person online menschlich ist oder ein KI-Bot. Die Forscher schlagen ein ‚Personhood Credential‘ (PHC)-System für die menschliche Verifizierung vor, um bestehende Prozesse wie CAPTCHAs zu ersetzen.
In dem Papier schlagen die Forscher das PHC-System vor, da sie besorgt sind, dass ‚bösartige Akteure‘ die Massenskalierbarkeit der KI und ihre Fähigkeit ausnutzen werden, überzeugend menschliches Verhalten online nachzuahmen und das Web mit nicht-menschlichen Inhalten zu überfluten.
Obwohl das PHC-System auf dem Papier eine großartige Lösung zu sein scheint, räumen die Forscher ein, dass es immer noch Fallstricke gibt. Zum Beispiel ist es wahrscheinlich, dass viele Menschen ihre PHC an KI-Spammer verkaufen würden und damit automatisierten Inhalten Glaubwürdigkeit verleihen würden.
Die Forscher argumentieren auch, dass Regierungen das PHC durch ein Pilotprogramm untersuchen sollten. Aber das PHC umgeht ein entscheidendes Problem: Diese Art von System belastet die Endbenutzer nur mit einer weiteren digitalen Last.
Ein Schritt, den Tech-Unternehmen unternehmen können, ist das Ausstellen von Wasserzeichen auf Inhalten ihrer KI-Modelle oder die Entwicklung eines Prozesses zur Erkennung der Anzeichen dafür, dass ein Datenstück von einer KI generiert wurde. Beides verschiebt die Verantwortung zurück auf die Quelle des KI-Bot-Problems.