Das Magazin der Zukunft - Kostenlos, Futuristisch, Genial.
Das Ende des KI-Hypes? Forscher warnen vor katastrophalem Modellzusammenbruch

Künstliche Intelligenz-Propheten und Neuigkeitenverbreiter prognostizieren das Ende des generativen KI-Hypes mit Gesprächen über einen bevorstehenden katastrophalen ‚Modellzusammenbruch‘. Diskutiert im Jahr 2023, aber erst kürzlich populär geworden, bezieht sich ‚Modellzusammenbruch‘ auf ein hypothetisches Szenario, in dem zukünftige KI-Systeme aufgrund der Zunahme von KI-generierten Daten im Internet zunehmend dümmer werden.
Moderne KI-Systeme werden mithilfe des maschinellen Lernens aufgebaut. Programmierer richten die zugrunde liegende mathematische Struktur ein, aber die tatsächliche ‚Intelligenz‘ stammt aus dem Training des Systems, um Muster in Daten zu imitieren. Um diese Daten zu beschaffen, durchsuchen große Technologieunternehmen wie OpenAI, Google, Meta und Nvidia kontinuierlich das Internet und sammeln Terabytes an Inhalten, um die Maschinen zu füttern.
Seit der Einführung weit verbreiteter und nützlicher generativer KI-Systeme im Jahr 2022 laden und teilen Menschen zunehmend Inhalte hoch, die teilweise oder vollständig von KI erstellt wurden. Im Jahr 2023 begannen Forscher sich zu fragen, ob sie nur auf AI-erstellte Daten zur Schulung vertrauen könnten, anstatt auf menschenerzeugte Daten. Es gibt enorme Anreize, dies zum Laufen zu bringen.
Forscher stellten jedoch fest, dass KI-Systeme, die auf AI-erstellten Daten trainiert sind, ohne hochwertige menschliche Daten immer dümmer werden. Diese ‚regurgitive Schulung‘ scheint zu einer Verringerung der Qualität und Vielfalt des Modellverhaltens zu führen.
Kurz gesagt könnten wir durch die übermäßige Nutzung von KI-Systemen die Datenquelle verschmutzen, die wir benötigen, um sie überhaupt nützlich zu machen. Können große Technologieunternehmen nicht einfach AI-generierte Inhalte filtern? Nicht wirklich.
Tech-Unternehmen investieren bereits viel Zeit und Geld in die Reinigung und Filterung der von ihnen gesammelten Daten. Diese Bemühungen könnten anspruchsvoller werden, da die Notwendigkeit steigt, speziell AI-generierte Inhalte zu entfernen.
Die Forschung zeigt bisher deutlich auf, dass wir menschliche Daten nicht vollständig abschaffen können. Immerhin stammt das ‚I‘ in AI daher. Es gibt Hinweise darauf, dass Entwickler bereits härter arbeiten müssen, um hochwertige Daten zu beschaffen.