Ein Team von Apple-Forschern hat herausgefunden, dass die angebliche Fähigkeit fortschrittlicher KI-Modelle zur ‚Reasoning‘ nicht das hält, was sie verspricht. Der Begriff ‚Reasoning‘ wird heutzutage viel im KI-Bereich verwendet, insbesondere bei der Vermarktung von fortschrittlichen KI-Sprachmodellen. Marketing hin oder her, es gibt keine einheitliche branchenweite Definition dafür, was ‚reasoning‘ genau bedeutet.
Laut einer noch nicht peer-reviewed Studie der Apple-Wissenschaftler sind die angeblichen Schlussfolgerungsfähigkeiten von Spitzen-KI-Modellen viel fragiler als gedacht. Durch subtile Änderungen an gegebenen Problemen fielen die AI-Modelle massiv durch.
Die Forscher argumentieren, dass KI-Modelle nicht wie Menschen schlussfolgern, sondern auf fortgeschrittenem Musterabgleich basieren. Die Studie zeigt, dass AI-Modelle empfindlich auf Änderungen reagieren und oft Fehler machen.
Diese Erkenntnisse stellen nicht nur die Intelligenz von Spitzen-KI-Modellen infrage, sondern auch die Genauigkeit der aktuellen Bewertungs- und Vermarktungsmethoden. Es wird betont, dass es entscheidend ist, Modelle zu entwickeln, die echte logische Schlussfolgerungen ziehen können – eine Herausforderung für die KI-Gemeinschaft.