Das Magazin der Zukunft - Kostenlos, Futuristisch, Genial.
Elon Musk plant Aufbau von Supercomputern für künstliche Intelligenz

Elon Musk hat angekündigt, dass XAI bis Ende dieses Jahres 100.000 Nvidia H100 Chips zu einem Gesamtwert von 400 Exaflops an Rechenleistung zusammenbauen wird, um Grok 3 zu trainieren. Dies entspricht ungefähr der Leistung des noch nicht veröffentlichten OpenAI GPT-5. Musk plant auch, bis Mitte 2025 300.000 Nvidia B200 Chips für das KI-Training einzurichten, was einer 15-fachen Rechenleistung der vorherigen Chips entspricht.
Diese Leistung wird sich von 2026 bis 2027 um weitere 15 Mal steigern, indem eine Million Nvidia Rubin Chips der nächsten Generation eingesetzt werden. Dies führt zu steigenden Kosten für die KI-Rechenzentren. Mit geschätzten Kosten von 150 Milliarden US-Dollar werden entsprechende Einnahmen benötigt, die diese Kosten decken oder übertreffen müssen.
Die Einnahmen könnten aus KI-generierter Software, KI-basierten IT- oder Unternehmensberatungsdiensten, KI-Abfragen anstelle von Internet-Suchanfragen, Robotaxi oder humanoiden Robotern stammen. Brian Wang beschreibt hier die Skalierung von Grok 4 und 5 unter Verwendung von 300.000 Nvidia B200 Chips mit einer Leistung von zwanzig Petaflops im Jahr 2025 und geht darüber hinaus zu einer Million Nvidia Rubin Chips.
Brian Wang ist ein Futurist und beliebter Wissenschaftsblogger mit monatlich einer Million Lesern auf seinem Blog Nextbigfuture.com. Er deckt viele disruptive Technologien und Trends ab, darunter Raumfahrt, Robotik, künstliche Intelligenz, Medizin, Anti-Aging-Biotechnologie und Nanotechnologie. Als Mitbegründer eines Start-ups und Fundraiser für vielversprechende Frühphasenunternehmen ist er bekannt dafür, wegweisende Technologien zu identifizieren.