Überspringen Sie zu Inhalten
Thor News

Thor News

The Hub Of Relevance for Tech & Gaming

Primäres Menü
  • Tech
    • Enterprise-Tech
    • Markt/Politik
  • Gaming
    • Hardware
      • Nintendo
      • PlayStation 5
      • PlayStation 6
      • Handheld
    • Spiele
  • Hardware
    • Notebook
    • CPU
    • GPU
    • Festplatten
    • NVMe
  • Künstliche Intelligenz
  • Gadgets & Devices
    • Apple
    • Android
  • Wissenschaft
    • Astronomie
  • Developers
  • Entertainment
Hell/dunkler Knopf
  • Heim
  • Künstliche Intelligenz
  • Oracle verhandelt 20-Mrd.-Clouddeal mit Meta: Folgen für AI-Infra
  • Künstliche Intelligenz

Oracle verhandelt 20-Mrd.-Clouddeal mit Meta: Folgen für AI-Infra

20.09.2025, 10:21 Uhr 6 minutes read
oracle_meta_deal

Oracle steht laut übereinstimmenden Berichten in fortgeschrittenen Gesprächen mit Meta über einen mehrjährigen Cloud-Computing-Vertrag im Volumen von rund 20 Milliarden US-Dollar. Demnach soll Oracle zusätzliche Rechenkapazitäten für das Training und den produktiven Einsatz von KI-Modellen liefern und damit Metas bestehende Cloud-Provider ergänzen. Ein Abschluss würde den massiven Infrastrukturhunger hinter Llama-Modellen, Recommender-Systemen und der Integration von „Meta AI“ quer durch Facebook, Instagram und WhatsApp eindrucksvoll unterstreichen. Zugleich wäre es ein nächster Großcoup für Oracle, das erst jüngst eine beispiellose Serie an milliardenschweren AI-Verträgen gemeldet hat – inklusive eines Mega-Deals mit OpenAI – und damit seine späte, aber aggressive Offensive im AI-Cloudmarkt belegt.

Inhaltsverzeichnis

Toggle
  • Warum Meta trotz eigener Supercluster externe Clouds braucht
  • OCI vs. AWS und GCP: Hardware, Netzwerk, Skalierung
  • Training vs. Inferenz: Wer punktet wo?
  • Standorte, Lieferketten, Regulierung: Der stille Deal-Hebel
  • Was bedeutet der Deal für Oracle – und die Risiken?
  • Fazit: Multicloud als neues Normal der AI-Ära
    • Worauf jetzt zu achten ist
  • Quellen

Warum Meta trotz eigener Supercluster externe Clouds braucht

Meta baut seit Jahren massiv eigene AI-Infrastruktur auf, von der Research SuperCluster-Linie bis zu neuen, skalierten Trainingsclustern. Allein 2024 sollten laut Meta-Engineering rund 350.000 Nvidia H100 im eigenen Bestand sein, insgesamt nahezu 600.000 „H100-Äquivalente“ an Compute-Leistung über den GPU-Mix hinweg – eine Größenordnung, die schon für sich einen der größten KI-Flotten weltweit markiert. Für 2025 hat Meta die Investitionen in Rechenzentren und Beschaffung auf 60–65 Milliarden US-Dollar taxiert und die Zielmarke von über 1,3 Millionen Beschleunigern bis Jahresende skizziert. Trotzdem setzt der Konzern sichtbar auf Multi-Cloud, um Kapazitätsspitzen im Training, Vortrainings-„Bursts“ für neue Modellgenerationen und globale Inferenz-Lasten schneller abdecken zu können – zuletzt belegt durch einen Cloud-Deal mit Google im Volumen von über 10 Milliarden US-Dollar. In diesem Kontext fügt sich ein Oracle-Pakt als weiteres Standbein ein, das Liefer- und Standortrisiken streut, Time-to-Compute verkürzt und regionale Compliance-Vorgaben (z. B. EU-Datenräume) abdeckt.

OCI vs. AWS und GCP: Hardware, Netzwerk, Skalierung

Oracles Pitch heißt „OCI Supercluster“: großskalige Bare-Metal-Setups mit RDMA-Netz, die je nach Generation mit Nvidia GB200-Superchips, B200/H200/H100/A100, AMD MI300X oder L40S bestückt werden und laut Spezifikation in einzelnen Clustern auf fünf- bis sechsstellige GPU-Zahlen skaliert werden können. Die klare Botschaft: Trainings-Jobs für Foundation-Modelle der nächsten Generation sollen ohne komplizierte Provider-Hopping-Strategien auf dediziertem, hochvernetztem Metall laufen. AWS kontert mit EC2-UltraClusters (H200/H100) plus eigenen Trainium2-Instanzen (Trn2), die je nach Workload 30–40 % bessere Preis-Leistung als aktuelle GPU-Generationen beanspruchen und damit insbesondere für wiederholte Vortraining-Zyklen und kostensensitive Feintunes attraktiv sind. Google Cloud setzt parallel auf zwei Säulen: Nvidia-basierte A-Familien bis hin zur A3 Ultra (H200) mit 3,2 Tbps GPU-zu-GPU-Bandbreite sowie die TPU-Linie (v5p/v5e/v5lite) als eng integrierte Alternative mit hohem Durchsatz pro Rack und oft sehr wettbewerbsfähiger Inferenz-Ökonomie. Die Entscheidungsebene verläuft damit weniger entlang „GPU vs. TPU“, sondern entlang Latenz-/Durchsatz-Ziele, Verfügbarkeit im Wunsch-Standort, Scheduler-Ökosystem (Slurm/K8s), Software-Stacks (PyTorch/XLA/NeMo/TF) und nicht zuletzt der realen Lieferbarkeit in den kommenden Quartalen.

Training vs. Inferenz: Wer punktet wo?

Für Groß-Trainings zählt vor allem Netzwerk-Topologie, deterministische Planung und „Right-sized“ Clustergrößen. OCI positioniert sich exakt hier mit Bare-Metal-HPC-Layouts und großen, zusammenhängenden GPU-Pools – ein Setup, das speziell für Pretraining-Runs über Wochen attraktiv ist. AWS spielt seine Stärke bei diversifizierten Workloads aus: UltraClusters für maximale Skalierung, daneben Trn2 für planbare Kostenkurven im wiederkehrenden Training und Inferentia-Familien für kosteneffiziente Inferenz-Flotten. GCPs „AI Hypercomputer“ bindet A3 Ultra und die TPU-Familie in eine Pipeline, die sich für Mixed-Workloads anbietet, bei denen Trainings-Artefakte ohne großen Reibungsverlust in riesige Inferenz-Farmen übergehen. Kurzfristig könnte Meta Trainings-Bursts für Llama-Generationen auf OCI einbuchen und Inferenz-Kapazität dynamisch zwischen Eigenzentren, GCP und ggf. AWS verteilen – je nach Latenz, Preis und regionaler Nachfrage.

Standorte, Lieferketten, Regulierung: Der stille Deal-Hebel

Jenseits von Roh-TFLOPS entscheidet Verfügbarkeit am richtigen Ort. Oracle investiert kräftig in EU-Kapazitäten, darunter 2 Milliarden US-Dollar in Deutschland über fünf Jahre, um die Frankfurter Region als AI-Hub auszubauen. Für globale Plattformen wie Meta, die in der EU besonders streng reguliert werden, sind solche Zusagen entscheidend: Datenlokalisierung, Energie-Mix, Netz-Redundanz und Genehmigungsprozesse bestimmen, wie schnell neue Inferenz-Features wirklich live gehen können. Dass Meta parallel externe Provider andockt, ist damit nicht nur eine Frage zusätzlicher GPUs, sondern auch der Liefer- und Standortdiversifizierung entlang regulatorischer Leitplanken.

Was bedeutet der Deal für Oracle – und die Risiken?

Für Oracle wäre ein Abschluss mit Meta ein Reputations-Boost erster Ordnung: Nach dem OpenAI-Paket würde ein weiterer Hyperscale-Kunde die OCI-Pipeline für Jahre füllen und die relative Spätzünder-Position im Public-Cloud-Markt kompensieren. Gleichzeitig mahnen Analysten zu Nüchternheit: Die jüngsten AI-Megaverträge konzentrieren Umsatz auf wenige, sehr große Konterparteien und erzwingen enorme Vorinvestitionen in Rechenzentren, Silizium und Netz. Rating-Agenturen haben bereits auf erhöhtes Gegenparteirisiko, steigende Verschuldung und temporär belasteten Cashflow hingewiesen – Faktoren, die Oracle gegen Volumenzusagen, Take-or-Pay-Strukturen und flexible Multicloud-Interconnects absichern muss. Kurz: Ein Meta-Pakt könnte das Wachstum zünden, erhöht aber die Notwendigkeit, Kapazität, Finanzierung und Abnahme vertraglich eng zu verzahnen.

Fazit: Multicloud als neues Normal der AI-Ära

Die Gemengelage zeigt: Die nächste Ausbaustufe von GenAI wird nicht von einem einzelnen Rechenzentrum, einem Chip oder einem Provider getragen. Stattdessen dominiert ein Multi-Cloud-Muster, in dem OEM-GPUs (H100/H200/Blackwell) und Spezialbeschleuniger (Trainium/TPU) nebeneinander existieren. Ein möglicher 20-Milliarden-Vertrag zwischen Oracle und Meta würde dieses Bild schärfen: Oracle gewinnt mit Bare-Metal-Superclustern und EU-Präsenz als „Skalierungs-Partner“ an Gewicht; Meta erhält schnell verfügbare Trainings- und Inferenz-Kapazität jenseits eigener Parks und bestehender Provider – inklusive GCP-Kontingenten –, um den Takt neuer Llama-Generationen und Produkt-Rollouts zu halten. Für den Markt heißt das: Preise bleiben in Bewegung, Kapazitäten bleiben knapp, und die technische wie vertragliche Portabilität von Workloads wird zum strategischen Pflichtfach.

Worauf jetzt zu achten ist

  • Welche GPU-Generation Oracle Meta konkret zusichert (H200 vs. Blackwell B200/GB200) und in welchen Regionen Kapazitäten tatsächlich kurzfristig lieferbar sind.
  • Ob Meta den Mix aus Eigenzentren, GCP-Kontingenten und einem möglichen OCI-Paket für unterschiedliche LLM-Generationen (Vortraining, SFT, RAG-Inferenz) klar segmentiert.
  • Wie AWS mit Trainium2/UltraClusters preislich und kapazitativ gegenhält – und ob das Meta zu weiteren Block-Buchungen motiviert.
  • Finanzielle Implikationen für Oracle (Capex, Verschuldung, Gegenparteien-Konzentration) im Lichte der jüngsten Analysten-Warnungen.

Keine Produkte gefunden.

Quellen

  • Reuters: Oracle verhandelt 20-Mrd.-AI-Clouddeal mit Meta
  • Handelsblatt: Oracle und Meta verhandeln offenbar über 20-Mrd.-Cloud-Deal
  • Oracle: AI Infrastructure & OCI Supercluster
  • AWS: EC2 UltraClusters (H200/H100, Trainium2)
  • Google Cloud: AI Hypercomputer & A3 Ultra/TPU v5p

Über den Autor

Avatar-Foto

Sebastian Schiebort

Administrator

Alle Beiträge anzeigen

Letzte Aktualisierung am 5.02.2026 / Affiliate Links / Bilder von der Amazon Product Advertising API. Alle hier angezeigten Preise und Verfügbarkeiten gelten zum angegebenen Zeitpunkt der Einbindung und können sich jederzeit ändern. Der Preis und die Verfügbarkeit, die zum Kaufzeitpunkt auf Amazon.de angezeigt werden, sind maßgeblich. Als Amazon-Partner verdienen wir an qualifizierten Verkäufen.

Keine ähnlichen Artikel gefunden.

  • Künstliche Intelligenz

Post navigation

Previous: Cyberpunk 2: Stellenausschreibung deutet Multiplayer an
Next: Jump Space: Starker Early-Access-Start – das sagen die Spieler

Andere Beiträge des Autors

Commodore 128: CES-Premiere 1985, Technik und Vermächtnis Commodore 128 CES-Premiere 1985, Technik und Vermächtnis

Commodore 128: CES-Premiere 1985, Technik und Vermächtnis

06.01.2026, 03:40 Uhr 0
GlassWorm Malware: neue Mac-Welle mit Krypto-Trojanern GlassWorm Malware neue Mac-Welle mit Krypto-Trojanern

GlassWorm Malware: neue Mac-Welle mit Krypto-Trojanern

04.01.2026, 19:51 Uhr 0
Nano Banana 2 Flash: Googles schnellste Bild-KI 2026 Nano Banana 2 Flash Googles schnellste Bild-KI 2026

Nano Banana 2 Flash: Googles schnellste Bild-KI 2026

02.01.2026, 18:14 Uhr 0
ChatGPT-Hardware: OpenAI setzt auf Stimme & Emotion ChatGPT-Hardware OpenAI setzt auf Stimme Emotion

ChatGPT-Hardware: OpenAI setzt auf Stimme & Emotion

01.01.2026, 18:22 Uhr 0

Ähnliche Themen

Nano Banana 2 Flash Googles schnellste Bild-KI 2026
5 minutes read
  • Künstliche Intelligenz

Nano Banana 2 Flash: Googles schnellste Bild-KI 2026

02.01.2026, 18:14 Uhr 0
ChatGPT-Hardware OpenAI setzt auf Stimme Emotion
6 minutes read
  • Künstliche Intelligenz

ChatGPT-Hardware: OpenAI setzt auf Stimme & Emotion

01.01.2026, 18:22 Uhr 0
KI-Gigafactory München 1 Mrd. Euro & GPU-Vergleich
6 minutes read
  • Künstliche Intelligenz

KI-Gigafactory München: 1 Mrd. Euro für AI-Cloud

04.11.2025, 19:26 Uhr 0
Google bestätigt Ads in der AI-Suche – aber anders
5 minutes read
  • Künstliche Intelligenz

Google bestätigt: Ads in der AI-Suche – aber anders

02.11.2025, 02:12 Uhr 0
Über eine Million Nutzer pro Woche OpenAI offenbart Suizid-Gefährdung bei ChatGPT-Chats
4 minutes read
  • Künstliche Intelligenz

Über eine Million Nutzer pro Woche: OpenAI offenbart Suizid-Gefährdung bei ChatGPT-Chats

28.10.2025, 19:25 Uhr 0
Hochpräzises Küstenflut-Modelling University of California Santa Cruz mit NVIDIA-Technologie
4 minutes read
  • Künstliche Intelligenz
  • GPU

UCSC & NVIDIA: GPU-Technologie revolutioniert Küstenflut-Modelle

22.10.2025, 13:26 Uhr 0

Trends

Bald kein Prime-Sharing mehr – droht das auch in Deutschland? amazon_prime_stop 1

Bald kein Prime-Sharing mehr – droht das auch in Deutschland?

09.09.2025, 09:01 Uhr 0
Gaming Notebook mit Nvidia RTX 5090 – Razer Blade 18 Razer_RTX5090_Notebook 2

Gaming Notebook mit Nvidia RTX 5090 – Razer Blade 18

30.08.2025, 19:07 Uhr 0
Dying Light: The Beast uncut in Deutschland: So geht’s Dying Light The Beast 3

Dying Light: The Beast uncut in Deutschland: So geht’s

19.09.2025, 10:49 Uhr 0
Dying Light: The Beast – Neuer Trailer zeigt Mortal-Kombat-Brutalität Dying Light The Beast 4

Dying Light: The Beast – Neuer Trailer zeigt Mortal-Kombat-Brutalität

05.08.2025, 18:44 Uhr 0

Neueste Beiträge

  • Commodore 128: CES-Premiere 1985, Technik und Vermächtnis
  • GlassWorm Malware: neue Mac-Welle mit Krypto-Trojanern
  • Nano Banana 2 Flash: Googles schnellste Bild-KI 2026
  • ChatGPT-Hardware: OpenAI setzt auf Stimme & Emotion
  • Fractal Design Scape Headset Review: Mein Fazit

Neueste Kommentare

Es sind keine Kommentare vorhanden.

Archiv

  • Januar 2026
  • November 2025
  • Oktober 2025
  • September 2025
  • August 2025
  • Juli 2025

Könnte dich auch interessieren

Commodore 128 CES-Premiere 1985, Technik und Vermächtnis
6 minutes read
  • Retrogaming

Commodore 128: CES-Premiere 1985, Technik und Vermächtnis

06.01.2026, 03:40 Uhr 0
GlassWorm Malware neue Mac-Welle mit Krypto-Trojanern
6 minutes read
  • Developers
  • Cybersecurity

GlassWorm Malware: neue Mac-Welle mit Krypto-Trojanern

04.01.2026, 19:51 Uhr 0
Nano Banana 2 Flash Googles schnellste Bild-KI 2026
5 minutes read
  • Künstliche Intelligenz

Nano Banana 2 Flash: Googles schnellste Bild-KI 2026

02.01.2026, 18:14 Uhr 0
ChatGPT-Hardware OpenAI setzt auf Stimme Emotion
6 minutes read
  • Künstliche Intelligenz

ChatGPT-Hardware: OpenAI setzt auf Stimme & Emotion

01.01.2026, 18:22 Uhr 0
Cookie-Einstellungen ändern
  • Impressum
  • Datenschutzerklärung
  • Über uns
  • Redaktionelle Richtlinien
  • Kontakt
  • Facebook
  • x.com
  • WhatsApp
  • Flipboard
  • RSS Feed
Alle Rechte vorbehalten. Copyright © thor.news