Revolutionäre L-Mul-Algorithmus reduziert Energiekosten für große Sprachmodelle

Neuer Algorithmus senkt Energiekosten um bis zu 95% für Tensor-Multiplikationen und 80% für Skalarprodukte

Der neue Linear-complexity Multiplication (L-Mul) Algorithmus behauptet, die Energiekosten um 95% für elementweise Tensor-Multiplikationen und um 80% für Skalarprodukte in großen Sprachmodellen zu reduzieren. Im Vergleich zu 8-Bit Gleitkommaoperationen wird die Präzision beibehalten oder sogar verbessert.

Brian Wang, ein Futurist Thought Leader und beliebter Science-Blogger mit einer Million Lesern pro Monat, berichtet über diese bahnbrechende Technologie. Sein Blog Nextbigfuture.com ist das führende Wissenschaftsnachrichten-Blog und behandelt disruptive Technologien wie Raumfahrt, Robotik, Künstliche Intelligenz, Medizin, Anti-Aging-Biotechnologie und Nanotechnologie.

Bekannt dafür, wegweisende Technologien zu identifizieren, ist er derzeit Mitbegründer eines Start-ups und Geldgeber für vielversprechende Frühphasenunternehmen. Als Leiter der Forschung für Investitionen in Tiefentechnologien und als Angel-Investor bei Space Angels ist er ein gefragter Redner in Unternehmen. Er war TEDx-Sprecher, Singularity University-Sprecher und Gast bei zahlreichen Radio- und Podcast-Interviews.

Der L-Mul-Algorithmus verspricht eine enorme Effizienzsteigerung bei der Verarbeitung großer Datenmengen in Sprachmodellen. Diese Innovation könnte einen Wendepunkt in der Entwicklung von KI-Technologien markieren und die Energieeffizienz deutlich verbessern.

Teile den Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert