Experten sind alarmiert, dass Menschen ihre medizinischen Scans auf Elon Musks Grok AI hochladen. Musk hat seine Anhänger ermutigt, medizinische Dokumente wie MRT-Scans und Röntgenbilder mit Grok zu teilen, seinem KI-Chatbot, der in X-formerly-Twitter integriert ist.
Trotz der vielen Datenschutzimplikationen haben viele seiner Fans genau das getan. In einigen Fällen haben sie sogar ihre Ergebnisse öffentlich geteilt.
Experten warnen nun davor, solche Informationen mit Grok zu teilen – sie betonen die Sicherheitsbedenken bei Chatbots im Allgemeinen und auch die mangelnde Transparenz bei Musks Unternehmen.
Die Risiken falscher Antworten können auch Patienten gefährden. Grok hat beispielsweise einen gebrochenen Schlüsselbein fälschlicherweise als Schulterluxation identifiziert. Ärzte stellten auch fest, dass der Chatbot einen ‚Lehrbuchfall‘ von Tuberkulose nicht erkannte und in einem anderen Fall einen gutartigen Zyste für Hoden hielt.
Zusätzlich gibt es Bedenken darüber, wie Chatbots selbst die Informationen nutzen, da ihre zugrunde liegenden großen Sprachmodelle ihre Fähigkeiten verfeinern. Das bedeutet, dass potenziell alles, was Sie einem Chatbot sagen, verwendet werden könnte, um ihn zu trainieren.
Die Datenschutzrichtlinien von X und dem Grok-Entwickler xAI sind unbefriedigend. Es gibt genügend Gründe zu bezweifeln, wie genau dies in der Praxis durchgesetzt wird.
Es ist möglich, dass Musks Unternehmen explizite Schutzmaßnahmen für Gesundheitsinformationen haben, die nicht öffentlich geteilt wurden. Dennoch würden sich viele Nutzer nicht wohl fühlen, Gesundheitsdaten beizutragen.