Das Gedächtnis bleibt bestehen: Forscher entdeckt Möglichkeit, falsche Erinnerungen in ChatGPT einzufügen

Sicherheitsforscher deckt Schwachstelle auf, die es ermöglicht, ChatGPT mit falschen Erinnerungen zu täuschen

OpenAI hat still und heimlich ein neues Feature veröffentlicht, das ChatGPT anweist, sich an vorherige Gespräche zu ‚erinnern‘ – und wie ein Forscher und Hacker herausgefunden hat, ist es leicht auszunutzen.

Wie Ars Technica berichtet, entdeckte der Sicherheitsforscher Johann Rehberger Anfang dieses Jahres eine Schwachstelle im ‚Langzeitgesprächsgedächtnis‘ des Chatbots. Dieses Tool instruiert die KI dazu, Details zwischen Gesprächen zu behalten und in einer Speicherdatei abzulegen.

Rehberger fand heraus, dass es einfach war, das Feature zu täuschen. Alles was er tun musste, war durch geschicktes Hervorrufen das Hochladen einer Datei eines Drittanbieters – wie zum Beispiel eines Microsoft Word-Dokuments mit ‚falschen‘ Erinnerungen als Aufzählungspunkte – den Chatbot davon zu überzeugen, dass Rehberger über 100 Jahre alt sei und im Matrix lebe.

Nachdem dieser Exploit entdeckt wurde, meldete Rehberger dies privat an OpenAI. Anstatt etwas dagegen zu unternehmen, schloss OpenAI einfach das von ihm eröffnete Ticket und nannte es ein ‚Modellsicherheitsproblem‘, anstatt dem Sicherheitsproblem, das er darin sah.

Nachdem der erste Versuch gescheitert war, die Verantwortlichen zu informieren, entschied sich Rehberger dafür sein Spiel mit einem vollständigen Proof-of-Concept-Hack zu intensivieren. Diesmal zeigte er OpenAI ernsthaftes Interesse daran: Das Unternehmen veröffentlichte einen Patch, der ChatGPT daran hinderte Daten außerhalb des Servers zu verschieben, aber behob das Gedächtnisproblem immer noch nicht.

In einem Video erklärt der Forscher Schritt für Schritt wie er es gemacht hat und zeigt sich beeindruckt davon wie gut sein Exploit funktionierte. ‚Was wirklich interessant ist: Das Gedächtnis bleibt jetzt bestehen,‘ sagte er in dem Demo-Video. ‚Die prompte Injektion fügte eine Erinnerung in den Langzeitspeicher von ChatGPT ein.‘

Wir haben OpenAI kontaktiert um mehr über diesen falschen Erinnerungs-Exploit herauszufinden und ob weitere Patches zur Behebung geplant sind. Bis wir eine Antwort erhalten bleiben wir genauso ratlos wie Rehberger darüber warum dieses Gedächtnisproblem bisher geduldet wurde.‘

Teile den Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert