Die Idee von ‚offenen‘ KI-Modellen verspricht Innovation und Demokratisierung. Doch eine Analyse in Nature zeigt, dass viele dieser Modelle kaum wirklich offen sind. Stattdessen nutzen große Tech-Unternehmen wie Google und Meta die Rhetorik der Offenheit, um ihre Macht zu festigen.
Debatten über Offenheit bei KI mögen akademisch erscheinen, aber mit dem zunehmenden Einsatz großer Sprachmodelle wie ChatGPT sind Gesetzgeber gefordert. Wie können Modelle in Schulen oder Unternehmen eingesetzt werden? Welche Schutzmaßnahmen sind nötig?
Die Analyse zeigt, wie der Begriff ‚Offenheit‘ bei KI-Modellen missbraucht wird. Im Gegensatz zur Open-Source-Software fehlt oft die Transparenz bei KI-Modellen. Große Sprachmodelle werden mit riesigen Datenmengen trainiert und von Tech-Giganten kontrolliert.
Die Debatte über Offenheit bei KI sollte das gesamte Ökosystem berücksichtigen. Es reicht nicht aus, nur einzelne Modelle zu bewerten. Die Entwicklung offener KI-Politiken erfordert einen ganzheitlichen Ansatz.