Anthropic, das KI-Startup, das sich immer als ethisch darstellt, hat gerade eine Partnerschaft mit Palantir geschlossen

Die ethische Fassade von Anthropic bröckelt bei der Zusammenarbeit mit dem Verteidigungsunternehmen Palantir

Anthropic, das KI-Unternehmen, das sich als sicherheitspriorisierende Alternative zu anderen KI-Firmen wie OpenAI präsentiert und viele Führungskräfte von dort abgeworben hat, hat sich mit dem zwielichtigen Verteidigungsunternehmen Palantir zusammengetan.

Das KI-Unternehmen arbeitet auch mit Amazon Web Services zusammen, um seinen KI-Chatbot Claude an US-Geheimdienste und Verteidigungsbehörden zu bringen – eine Allianz, die im Widerspruch zu Anthropics Behauptung steht, ‚Sicherheit an die erste Stelle zu setzen‘.

Laut einer Pressemitteilung unterstützt die Partnerschaft den militärisch-industriellen Komplex der USA dabei, ‚große Mengen komplexer Daten schnell zu verarbeiten, datengesteuerte Erkenntnisse zu verbessern, Muster und Trends effektiver zu identifizieren, die Dokumentenprüfung und -vorbereitung zu optimieren und US-Beamten zu helfen, in zeitkritischen Situationen informiertere Entscheidungen zu treffen‘.

Die Situation ist besonders eigenartig, da KI-Chatbots schon lange den Ruf haben, sensible Informationen preiszugeben und ‚Fakten zu halluzinieren‘.

Anthropic erlaubt technisch gesehen seinen KI-Werkzeugen seit kurzem auch den Einsatz zur ‚Identifizierung verdeckter Einfluss- oder Sabotagekampagnen‘ oder zur ‚frühzeitigen Warnung vor potenziellen militärischen Aktivitäten‘, wie aus den erweiterten Nutzungsbedingungen hervorgeht.

Die neueste Partnerschaft ermöglicht Claude den Zugang zu Informationen des ‚geheimen‘ Palantir Impact Level 6 (IL6), eine Stufe unter ’streng geheim‘ im Verteidigungsministerium. Alles was als IL6 eingestuft wird, kann Daten enthalten, die für die nationale Sicherheit von entscheidender Bedeutung sind.

In anderen Worten: Anthropic und Palantir haben dem KI-Chatbot zwar nicht die Nuklearcodes übergeben – aber er wird jetzt Zugang zu einigen brisanten Informationen haben. Es stellt Anthropic auch in ethisch fragwürdige Gesellschaft. Zum Beispiel erhielt Palantir dieses Jahr einen Vertrag über 480 Millionen Dollar von der US-Armee für den Aufbau eines KI-gestützten Zielerfassungssystems namens Maven Smart System.

Es handelt sich um eine beunruhigende Partnerschaft, die die wachsenden Verbindungen der KI-Branche mit dem militärisch-industriellen Komplex der USA aufzeigt – ein besorgniserregender Trend angesichts der vielen inhärenten Mängel der Technologie und noch mehr wenn Menschenleben auf dem Spiel stehen könnten.

Teile den Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert