
Oracle steht laut übereinstimmenden Berichten in fortgeschrittenen Gesprächen mit Meta über einen mehrjährigen Cloud-Computing-Vertrag im Volumen von rund 20 Milliarden US-Dollar. Demnach soll Oracle zusätzliche Rechenkapazitäten für das Training und den produktiven Einsatz von KI-Modellen liefern und damit Metas bestehende Cloud-Provider ergänzen. Ein Abschluss würde den massiven Infrastrukturhunger hinter Llama-Modellen, Recommender-Systemen und der Integration von „Meta AI“ quer durch Facebook, Instagram und WhatsApp eindrucksvoll unterstreichen. Zugleich wäre es ein nächster Großcoup für Oracle, das erst jüngst eine beispiellose Serie an milliardenschweren AI-Verträgen gemeldet hat – inklusive eines Mega-Deals mit OpenAI – und damit seine späte, aber aggressive Offensive im AI-Cloudmarkt belegt.
Warum Meta trotz eigener Supercluster externe Clouds braucht
Meta baut seit Jahren massiv eigene AI-Infrastruktur auf, von der Research SuperCluster-Linie bis zu neuen, skalierten Trainingsclustern. Allein 2024 sollten laut Meta-Engineering rund 350.000 Nvidia H100 im eigenen Bestand sein, insgesamt nahezu 600.000 „H100-Äquivalente“ an Compute-Leistung über den GPU-Mix hinweg – eine Größenordnung, die schon für sich einen der größten KI-Flotten weltweit markiert. Für 2025 hat Meta die Investitionen in Rechenzentren und Beschaffung auf 60–65 Milliarden US-Dollar taxiert und die Zielmarke von über 1,3 Millionen Beschleunigern bis Jahresende skizziert. Trotzdem setzt der Konzern sichtbar auf Multi-Cloud, um Kapazitätsspitzen im Training, Vortrainings-„Bursts“ für neue Modellgenerationen und globale Inferenz-Lasten schneller abdecken zu können – zuletzt belegt durch einen Cloud-Deal mit Google im Volumen von über 10 Milliarden US-Dollar. In diesem Kontext fügt sich ein Oracle-Pakt als weiteres Standbein ein, das Liefer- und Standortrisiken streut, Time-to-Compute verkürzt und regionale Compliance-Vorgaben (z. B. EU-Datenräume) abdeckt.
OCI vs. AWS und GCP: Hardware, Netzwerk, Skalierung
Oracles Pitch heißt „OCI Supercluster“: großskalige Bare-Metal-Setups mit RDMA-Netz, die je nach Generation mit Nvidia GB200-Superchips, B200/H200/H100/A100, AMD MI300X oder L40S bestückt werden und laut Spezifikation in einzelnen Clustern auf fünf- bis sechsstellige GPU-Zahlen skaliert werden können. Die klare Botschaft: Trainings-Jobs für Foundation-Modelle der nächsten Generation sollen ohne komplizierte Provider-Hopping-Strategien auf dediziertem, hochvernetztem Metall laufen. AWS kontert mit EC2-UltraClusters (H200/H100) plus eigenen Trainium2-Instanzen (Trn2), die je nach Workload 30–40 % bessere Preis-Leistung als aktuelle GPU-Generationen beanspruchen und damit insbesondere für wiederholte Vortraining-Zyklen und kostensensitive Feintunes attraktiv sind. Google Cloud setzt parallel auf zwei Säulen: Nvidia-basierte A-Familien bis hin zur A3 Ultra (H200) mit 3,2 Tbps GPU-zu-GPU-Bandbreite sowie die TPU-Linie (v5p/v5e/v5lite) als eng integrierte Alternative mit hohem Durchsatz pro Rack und oft sehr wettbewerbsfähiger Inferenz-Ökonomie. Die Entscheidungsebene verläuft damit weniger entlang „GPU vs. TPU“, sondern entlang Latenz-/Durchsatz-Ziele, Verfügbarkeit im Wunsch-Standort, Scheduler-Ökosystem (Slurm/K8s), Software-Stacks (PyTorch/XLA/NeMo/TF) und nicht zuletzt der realen Lieferbarkeit in den kommenden Quartalen.
Training vs. Inferenz: Wer punktet wo?
Für Groß-Trainings zählt vor allem Netzwerk-Topologie, deterministische Planung und „Right-sized“ Clustergrößen. OCI positioniert sich exakt hier mit Bare-Metal-HPC-Layouts und großen, zusammenhängenden GPU-Pools – ein Setup, das speziell für Pretraining-Runs über Wochen attraktiv ist. AWS spielt seine Stärke bei diversifizierten Workloads aus: UltraClusters für maximale Skalierung, daneben Trn2 für planbare Kostenkurven im wiederkehrenden Training und Inferentia-Familien für kosteneffiziente Inferenz-Flotten. GCPs „AI Hypercomputer“ bindet A3 Ultra und die TPU-Familie in eine Pipeline, die sich für Mixed-Workloads anbietet, bei denen Trainings-Artefakte ohne großen Reibungsverlust in riesige Inferenz-Farmen übergehen. Kurzfristig könnte Meta Trainings-Bursts für Llama-Generationen auf OCI einbuchen und Inferenz-Kapazität dynamisch zwischen Eigenzentren, GCP und ggf. AWS verteilen – je nach Latenz, Preis und regionaler Nachfrage.
Standorte, Lieferketten, Regulierung: Der stille Deal-Hebel
Jenseits von Roh-TFLOPS entscheidet Verfügbarkeit am richtigen Ort. Oracle investiert kräftig in EU-Kapazitäten, darunter 2 Milliarden US-Dollar in Deutschland über fünf Jahre, um die Frankfurter Region als AI-Hub auszubauen. Für globale Plattformen wie Meta, die in der EU besonders streng reguliert werden, sind solche Zusagen entscheidend: Datenlokalisierung, Energie-Mix, Netz-Redundanz und Genehmigungsprozesse bestimmen, wie schnell neue Inferenz-Features wirklich live gehen können. Dass Meta parallel externe Provider andockt, ist damit nicht nur eine Frage zusätzlicher GPUs, sondern auch der Liefer- und Standortdiversifizierung entlang regulatorischer Leitplanken.
Was bedeutet der Deal für Oracle – und die Risiken?
Für Oracle wäre ein Abschluss mit Meta ein Reputations-Boost erster Ordnung: Nach dem OpenAI-Paket würde ein weiterer Hyperscale-Kunde die OCI-Pipeline für Jahre füllen und die relative Spätzünder-Position im Public-Cloud-Markt kompensieren. Gleichzeitig mahnen Analysten zu Nüchternheit: Die jüngsten AI-Megaverträge konzentrieren Umsatz auf wenige, sehr große Konterparteien und erzwingen enorme Vorinvestitionen in Rechenzentren, Silizium und Netz. Rating-Agenturen haben bereits auf erhöhtes Gegenparteirisiko, steigende Verschuldung und temporär belasteten Cashflow hingewiesen – Faktoren, die Oracle gegen Volumenzusagen, Take-or-Pay-Strukturen und flexible Multicloud-Interconnects absichern muss. Kurz: Ein Meta-Pakt könnte das Wachstum zünden, erhöht aber die Notwendigkeit, Kapazität, Finanzierung und Abnahme vertraglich eng zu verzahnen.
Fazit: Multicloud als neues Normal der AI-Ära
Die Gemengelage zeigt: Die nächste Ausbaustufe von GenAI wird nicht von einem einzelnen Rechenzentrum, einem Chip oder einem Provider getragen. Stattdessen dominiert ein Multi-Cloud-Muster, in dem OEM-GPUs (H100/H200/Blackwell) und Spezialbeschleuniger (Trainium/TPU) nebeneinander existieren. Ein möglicher 20-Milliarden-Vertrag zwischen Oracle und Meta würde dieses Bild schärfen: Oracle gewinnt mit Bare-Metal-Superclustern und EU-Präsenz als „Skalierungs-Partner“ an Gewicht; Meta erhält schnell verfügbare Trainings- und Inferenz-Kapazität jenseits eigener Parks und bestehender Provider – inklusive GCP-Kontingenten –, um den Takt neuer Llama-Generationen und Produkt-Rollouts zu halten. Für den Markt heißt das: Preise bleiben in Bewegung, Kapazitäten bleiben knapp, und die technische wie vertragliche Portabilität von Workloads wird zum strategischen Pflichtfach.
Worauf jetzt zu achten ist
- Welche GPU-Generation Oracle Meta konkret zusichert (H200 vs. Blackwell B200/GB200) und in welchen Regionen Kapazitäten tatsächlich kurzfristig lieferbar sind.
- Ob Meta den Mix aus Eigenzentren, GCP-Kontingenten und einem möglichen OCI-Paket für unterschiedliche LLM-Generationen (Vortraining, SFT, RAG-Inferenz) klar segmentiert.
- Wie AWS mit Trainium2/UltraClusters preislich und kapazitativ gegenhält – und ob das Meta zu weiteren Block-Buchungen motiviert.
- Finanzielle Implikationen für Oracle (Capex, Verschuldung, Gegenparteien-Konzentration) im Lichte der jüngsten Analysten-Warnungen.
Letzte Aktualisierung am 1.09.2025 / Affiliate Links / Bilder von der Amazon Product Advertising API. Alle hier angezeigten Preise und Verfügbarkeiten gelten zum angegebenen Zeitpunkt der Einbindung und können sich jederzeit ändern. Der Preis und die Verfügbarkeit, die zum Kaufzeitpunkt auf Amazon.de angezeigt werden, sind maßgeblich. Als Amazon-Partner verdienen wir an qualifizierten Verkäufen.
Quellen
- Reuters: Oracle verhandelt 20-Mrd.-AI-Clouddeal mit Meta
- Handelsblatt: Oracle und Meta verhandeln offenbar über 20-Mrd.-Cloud-Deal
- Oracle: AI Infrastructure & OCI Supercluster
- AWS: EC2 UltraClusters (H200/H100, Trainium2)
- Google Cloud: AI Hypercomputer & A3 Ultra/TPU v5p