Ein Sicherheitsforscher hat gezeigt, dass Microsofts Copilot AI leicht manipuliert werden kann, um sensible Daten einer Organisation preiszugeben, einschließlich E-Mails und Banktransaktionen. Laut Wired kann es auch zu einer mächtigen Phishing-Maschine umfunktioniert werden, die nur wenig Aufwand erfordert.
Michael Bargury, Mitbegründer und CTO des Sicherheitsunternehmens Zenity, erklärte gegenüber Wired: ‚Ich kann dies mit jedem machen, mit dem Sie jemals gesprochen haben, und ich kann Hunderte von E-Mails in Ihrem Namen senden.‘ Er präsentierte diese Ergebnisse auf der Black Hat-Sicherheitskonferenz in Las Vegas und warnte vor den Risiken von KI-Chatbots wie Copilot, die auf Datensätzen mit sensiblen Informationen basieren.
Ein Video zeigt, wie Bargury den Chatbot dazu brachte, den Empfänger einer Banküberweisung zu ändern, indem er einfach eine bösartige E-Mail sandte. Ein weiteres Video zeigt, welchen Schaden ein Hacker mit Copilot anrichten könnte. Durch einfache Fragen konnte Bargury sensible Daten erhalten und eine überzeugende Phishing-Attacke erstellen.
Microsofts Copilot AI ermöglicht es Unternehmen, Chatbots an ihre spezifischen Anforderungen anzupassen. Doch die Offenlegung von Unternehmensdaten birgt Risiken. Viele dieser Chatbots sind standardmäßig online auffindbar und anfällig für Hackerangriffe. Ein cleverer Weg für böswillige Akteure ist die indirekte Prompt-Injektion: Durch Vergiftung mit externen Daten können sie den Chatbot dazu bringen, verbotene Aktionen auszuführen.
Es besteht also eine grundlegende Sicherheitslücke: Wenn KI Zugriff auf Daten erhält, wird diese zum Angriffsziel für prompt injection. Dies verdeutlicht die potenziellen Gefahren von KI-Technologien wie Microsofts Copilot AI.