Nvidia investiert 100 Milliarden Dollar in Partnerschaft mit OpenAI für KI-Rechenzentren

Nvidia kündigte eine strategische Partnerschaft mit OpenAI an. Der Chip-Gigant plant demnach Investitionen von bis zu 100 Milliarden Dollar (92,8 Milliarden Euro) für den Aufbau riesiger Rechenzentren. Diese sollen dem Training und Betrieb von KI-Modellen dienen.

Die geplanten Systeme sollen eine Leistung von 10 Gigawatt erreichen, genug Energie, um mehrere Millionen Haushalte zu versorgen. Für OpenAI bedeutet diese Zusammenarbeit mehr Unabhängigkeit von Microsoft, dem bisher größten Investor und Cloud-Computing-Anbieter. Seit Microsoft im Januar seine Partnerschaft mit OpenAI lockerte, nutzt der ChatGPT-Entwickler die Chance, sein Netzwerk zu erweitern. Neben dem Stargate-Projekt entstanden weitere Kooperationen. Nvidia betont, dass die neue Vereinbarung bestehende Partnerschaften mit Microsoft, Oracle und SoftBank ergänzt.

OpenAI bezeichnet Nvidia jetzt als bevorzugten Partner für Rechenleistung und Netzwerktechnik beim Ausbau seiner KI-Fabriken. Die genaue Form der Investition, ob in Form von Chips, Cloud-Guthaben oder Bargeld, steht noch nicht fest.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Nordlicht, Ehemann und Vater. Technik-verliebt und lebt fürs Bloggen. Außerdem: Mail: benjamin@caschys.blog / Mastodon

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

2 Kommentare

  1. Da sich die Zeichen einer platzenden KI-Bubble an allen Ecken und Enden immer mehr verdichten, ist das ein mutiger Schritt von Nvidia.. Aber gut im Zweifel kann man ja die Rechenzentren auch anderweitig nutzen.
    Ich bin mir ziemlich sicher, dass man bei einem Investment von 100 Mrd. in der jetzigen Phase von „KI“ bzw. halt LLMs nicht viel Return davon sehen wird.

    • Auch wenn ich den Hype um LLMs auch kritisch sehe, sieht es für mich nicht nach einer Blase aus. Die Einsatzmöglichkeiten von Technologien wie sie in chatGPT, VoiceAssistant und Sora verwendet werden (und allen Alternativen) sind ernorm.

      Das ganze muss noch 1-2 Jahrzehnte köcheln aber grundsätzlich erscheint es mir aus amerikanischer Sicht als extrem wichtig jetzt die Infrastruktur dafür zu bauen.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht. Es besteht kein Recht auf die Veröffentlichung eines Kommentars.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Kommentar-Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.