Überspringen Sie zu Inhalten
Thor News

Thor News

The Hub Of Relevance for Tech & Gaming

Primäres Menü
  • Tech
    • Enterprise-Tech
    • Markt/Politik
  • Gaming
    • Hardware
      • Nintendo
      • PlayStation 5
      • PlayStation 6
      • Handheld
    • Spiele
  • Hardware
    • Notebook
    • CPU
    • GPU
    • Festplatten
    • NVMe
  • Künstliche Intelligenz
  • Gadgets & Devices
    • Apple
    • Android
  • Wissenschaft
    • Astronomie
  • Developers
  • Entertainment
Hell/dunkler Knopf
  • Heim
  • Künstliche Intelligenz
  • Microsoft plant das stärkste KI-Rechenzentrum der Welt “Fairwater”
  • Künstliche Intelligenz

Microsoft plant das stärkste KI-Rechenzentrum der Welt “Fairwater”

19.09.2025, 08:52 Uhr 5 minutes read
datacenter_ki_ai

Microsoft errichtet in Mount Pleasant (Wisconsin) ein neues Hyperscale-AI-Datacenter mit dem Codenamen Fairwater, das nach Unternehmensangaben die weltweit höchste KI-Leistung bündeln soll. Der erste Campus ist Teil einer Investition von 3,3 Milliarden US-Dollar und wurde um ein zweites, gleich großes Rechenzentrum für weitere 4 Milliarden US-Dollar erweitert. Fairwater ist primär als KI-Fabrik ausgelegt: zum Training und zur Inferenz modernster Modelle, zunächst für OpenAI und Azure-Dienste wie Copilot. Das Konzept unterscheidet sich von klassischen Cloud-Regionen: Statt viele heterogene Workloads zu verteilen, wird hier ein extrem eng gekoppelter Supercomputer aufgebaut, der hunderttausende NVIDIA-Beschleuniger in ein gemeinsames, verlustarmes Hochgeschwindigkeitsnetz verbindet. Microsoft spricht davon, dass Fairwater die zehnfache Leistung des derzeit schnellsten Supercomputers erreichen und damit Entwicklungszyklen für Frontier-Modelle deutlich verkürzen soll.

Inhaltsverzeichnis

Toggle
  • Wofür Fairwater genutzt wird: OpenAI-Training, Azure-KI und großskalige Inferenz
  • Was technisch drinsteckt: GB200-/GB300-GPU-Cluster, verlustarme Fabrics, Kilometer an Glasfaser
  • Kühlung und Energie: Geschlossener Flüssigkreislauf, „Dry-Operation“ und grüner Ausgleich
  • Speicher- und Datenpfade: GPU-nahes Laden und skalierbarer Objektspeicher
  • Warum Wisconsin? Fläche, Klima, Netze – und ein vorbereitetes Ökosystem
  • Zeitplan, zweite Ausbaustufe und Ausblick
  • Quellen

Wofür Fairwater genutzt wird: OpenAI-Training, Azure-KI und großskalige Inferenz

Die erste Ausbaustufe von Fairwater dient dem Pretraining und Finetuning der nächsten OpenAI-Generationen; parallel stellt die Anlage Kapazitäten für Azure OpenAI und Copilot bereit. Der Fokus liegt auf Workloads mit riesigen Kontextfenstern, Multimodalität und komplexen Werkzeugketten – genau den Szenarien, die konsistente Latenz und extrem hohe GPU-zu-GPU-Bandbreiten erfordern. Im Ergebnis sollen sich Trainingsläufe, die bisher Wochen dauerten, auf deutlich kürzere Intervalle verdichten; zudem werden mehr Experimente parallel möglich, was die Kadenz neuer Modell-Releases erhöht.

Was technisch drinsteckt: GB200-/GB300-GPU-Cluster, verlustarme Fabrics, Kilometer an Glasfaser

Im Zentrum stehen Cluster aus NVIDIA-GB200 (Blackwell-Generation), die in Rack-Domänen mit dicht verdrahteten NVLink/NVSwitch-Topologien zusammengeschaltet werden. Zwischen den Domänen spannt sich eine skalierte Fabric aus Hochgeschwindigkeits-Ethernet und InfiniBand, optimiert für KI-Workloads mit großem All-to-All-Verkehr. Microsoft betont die nahezu verlustfreie Kopplung über viele Racks hinweg – eine Voraussetzung, damit hunderttausende GPUs wie ein einheitlicher Supercomputer arbeiten. Die Netz- und Versorgungsinfrastruktur ist entsprechend dimensioniert: Es werden Glasfasermengen verlegt, die ausreichen würden, die Erde mehr als viermal zu umspannen; Campus-weit kommen hunderte Kilometer Mittelspannungs- und Steuerleitungen sowie umfangreiche Mechanik-Pipelines hinzu. Perspektivisch plant Microsoft die nächste Stufe mit GB300 (Rubin-Generation) in weiteren Regionen, während Wisconsin als Flotten-Standard zunächst GB200 skaliert.

Kühlung und Energie: Geschlossener Flüssigkreislauf, „Dry-Operation“ und grüner Ausgleich

Fairwater setzt auf eine flüssigkeitsbasierte Direktkühlung mit geschlossenem Kreislauf. Nach der Erstbefüllung zirkuliert das Medium im System; laufender Wasserverbrauch fällt im Normalbetrieb nicht an. Nur bei seltenen Spitzenlast- und Hitzesituationen unterstützen adiabate bzw. luftseitige Systeme. Der Ansatz reduziert Wasserbedarf und verbessert gleichzeitig die thermische Effizienz – essenziell bei eng gepackten GB200-Racks. Beim Strom verfolgt Microsoft einen CO₂-freien Ausgleich über zusätzliche Erneuerbaren-Kapazitäten in der Region und bindet die Anlage in ein Netz aus skalierbaren Erzeugern und Speichern ein. Ziel ist es, die Gigawatt-Lasten planbar bereitzustellen, ohne lokale Tarife zu belasten; dazu werden Infrastrukturmaßnahmen vorfinanziert und mit dem Versorgerumfeld abgestimmt.

Speicher- und Datenpfade: GPU-nahes Laden und skalierbarer Objektspeicher

Damit die teuren Beschleuniger permanent ausgelastet bleiben, wird die Datenebene GPU-nah organisiert. Trainingsdaten liegen auf hochskalierenden Objektspeichern mit massivem Durchsatz; Caching- und Prefetch-Pfad sind auf hohe IOPS und sequentielle Ströme ausgelegt, sodass Sharding und Data-Loader die GPU-Zeit nicht ausbremsen. Microsoft verweist auf Azure-Optimierungen, die pro Datenkonto Millionen Operationen pro Sekunde ermöglichen und in der Breite Exabyte-Skalen adressieren – ein Baustein, um sehr große Token-Mengen zuverlässig durch den Cluster zu führen.

Warum Wisconsin? Fläche, Klima, Netze – und ein vorbereitetes Ökosystem

Mount Pleasant liegt zwischen Milwaukee und Chicago und bietet eine seltene Kombination aus sofort verfügbarer Großfläche und bestehender Versorgungs- und Glasfaserinfrastruktur. Das Areal stammt aus dem Foxconn-Projekt und ist bereits für Hyperscale-Lasten vorbereitet – inklusive Erschließung, Zuwegungen und Netzanschlüssen. Das kühlere Klima am Lake Michigan verbessert die Abwärmeabfuhr, was gerade für flüssigkeitsgekühlte Hochleistungs-Racks Vorteile bringt. Zusätzlich bindet Microsoft regionale Ausbildungs- und Qualifizierungsprogramme ein, um Betrieb und Ausbau langfristig personell abzusichern. Kurz: Wisconsin liefert Platz, Klima und Netze – genau die Parameter, die ein Supercomputer dieser Größenordnung benötigt.

Zeitplan, zweite Ausbaustufe und Ausblick

Die Inbetriebnahme der ersten Fairwater-Ausbaustufe ist für Anfang 2026 avisiert; parallel entsteht in der Region ein zweiter Campus für rund 4 Milliarden US-Dollar, wodurch sich das Gesamtvolumen auf über 7 Milliarden US-Dollar erhöht. Strategisch gehört Fairwater zu einer Familie identischer AI-Standorte, die Microsoft in den USA und Europa aufbaut. Mit jedem zusätzlichen Campus wächst die globale Trainingsflotte – und damit die Möglichkeit, größere Modelle schneller zu entwickeln, zu testen und auszurollen. Für Forschung, Industrie und Software-Ökosysteme dürfte das zu kürzeren Innovationszyklen und einer breiteren Verfügbarkeit starker KI-Funktionen führen.

Fairwater steht für den Wechsel von „Cloud-Region“ zu KI-Fabrik: eng gekoppelte GB200-/GB300-Cluster, verlustarme Fabrics, GPU-nahe Datenpfade und eine Kühlung, die den Dauerbetrieb bei hoher Leistungsdichte überhaupt erst ermöglicht. Dass Microsoft Wisconsin wählt, ist logisch: vorbereitete Hyperscale-Flächen, klimatische Vorteile und starke Netze. Mit der zweiten 4-Milliarden-US-Dollar-Erweiterung wird aus einem Leuchtturm eine gesamte Standort-Strategie – und die Basis für die nächste Generation von OpenAI- und Azure-Modellen.

Quellen

  • Microsoft (DE-CH): Microsoft errichtet das weltweit leistungsstärkste KI-Rechenzentrum
  • Microsoft (EMEA, Deutsch): Details zum Fairwater-Projekt
  • WinFuture: Foxconn-Areal wird zum „stärksten“ KI-Rechenzentrum der Welt
  • Investing.com (DE): Weltweit leistungsstärkstes KI-Rechenzentrum in Wisconsin
  • IT-Boltwise: Microsofts neue KI-Rechenzentren revolutionieren die Cloud-Infrastruktur

Über den Autor

Avatar-Foto

Sebastian Schiebort

Administrator

Alle Beiträge anzeigen

Keine ähnlichen Artikel gefunden.

  • Künstliche Intelligenz

Post navigation

Previous: Nvidia investiert 5 Mrd. $ in Intel – neue Chip-Allianz
Next: Dying Light: The Beast uncut in Deutschland: So geht’s

Andere Beiträge des Autors

Commodore 128: CES-Premiere 1985, Technik und Vermächtnis Commodore 128 CES-Premiere 1985, Technik und Vermächtnis

Commodore 128: CES-Premiere 1985, Technik und Vermächtnis

06.01.2026, 03:40 Uhr 0
GlassWorm Malware: neue Mac-Welle mit Krypto-Trojanern GlassWorm Malware neue Mac-Welle mit Krypto-Trojanern

GlassWorm Malware: neue Mac-Welle mit Krypto-Trojanern

04.01.2026, 19:51 Uhr 0
Nano Banana 2 Flash: Googles schnellste Bild-KI 2026 Nano Banana 2 Flash Googles schnellste Bild-KI 2026

Nano Banana 2 Flash: Googles schnellste Bild-KI 2026

02.01.2026, 18:14 Uhr 0
ChatGPT-Hardware: OpenAI setzt auf Stimme & Emotion ChatGPT-Hardware OpenAI setzt auf Stimme Emotion

ChatGPT-Hardware: OpenAI setzt auf Stimme & Emotion

01.01.2026, 18:22 Uhr 0

Ähnliche Themen

Nano Banana 2 Flash Googles schnellste Bild-KI 2026
5 minutes read
  • Künstliche Intelligenz

Nano Banana 2 Flash: Googles schnellste Bild-KI 2026

02.01.2026, 18:14 Uhr 0
ChatGPT-Hardware OpenAI setzt auf Stimme Emotion
6 minutes read
  • Künstliche Intelligenz

ChatGPT-Hardware: OpenAI setzt auf Stimme & Emotion

01.01.2026, 18:22 Uhr 0
KI-Gigafactory München 1 Mrd. Euro & GPU-Vergleich
6 minutes read
  • Künstliche Intelligenz

KI-Gigafactory München: 1 Mrd. Euro für AI-Cloud

04.11.2025, 19:26 Uhr 0
Google bestätigt Ads in der AI-Suche – aber anders
5 minutes read
  • Künstliche Intelligenz

Google bestätigt: Ads in der AI-Suche – aber anders

02.11.2025, 02:12 Uhr 0
Über eine Million Nutzer pro Woche OpenAI offenbart Suizid-Gefährdung bei ChatGPT-Chats
4 minutes read
  • Künstliche Intelligenz

Über eine Million Nutzer pro Woche: OpenAI offenbart Suizid-Gefährdung bei ChatGPT-Chats

28.10.2025, 19:25 Uhr 0
Hochpräzises Küstenflut-Modelling University of California Santa Cruz mit NVIDIA-Technologie
4 minutes read
  • Künstliche Intelligenz
  • GPU

UCSC & NVIDIA: GPU-Technologie revolutioniert Küstenflut-Modelle

22.10.2025, 13:26 Uhr 0

Trends

Bald kein Prime-Sharing mehr – droht das auch in Deutschland? amazon_prime_stop 1

Bald kein Prime-Sharing mehr – droht das auch in Deutschland?

09.09.2025, 09:01 Uhr 0
Gaming Notebook mit Nvidia RTX 5090 – Razer Blade 18 Razer_RTX5090_Notebook 2

Gaming Notebook mit Nvidia RTX 5090 – Razer Blade 18

30.08.2025, 19:07 Uhr 0
Dying Light: The Beast uncut in Deutschland: So geht’s Dying Light The Beast 3

Dying Light: The Beast uncut in Deutschland: So geht’s

19.09.2025, 10:49 Uhr 0
Dying Light: The Beast – Neuer Trailer zeigt Mortal-Kombat-Brutalität Dying Light The Beast 4

Dying Light: The Beast – Neuer Trailer zeigt Mortal-Kombat-Brutalität

05.08.2025, 18:44 Uhr 0

Neueste Beiträge

  • Commodore 128: CES-Premiere 1985, Technik und Vermächtnis
  • GlassWorm Malware: neue Mac-Welle mit Krypto-Trojanern
  • Nano Banana 2 Flash: Googles schnellste Bild-KI 2026
  • ChatGPT-Hardware: OpenAI setzt auf Stimme & Emotion
  • Fractal Design Scape Headset Review: Mein Fazit

Neueste Kommentare

Es sind keine Kommentare vorhanden.

Archiv

  • Januar 2026
  • November 2025
  • Oktober 2025
  • September 2025
  • August 2025
  • Juli 2025

Könnte dich auch interessieren

Commodore 128 CES-Premiere 1985, Technik und Vermächtnis
6 minutes read
  • Retrogaming

Commodore 128: CES-Premiere 1985, Technik und Vermächtnis

06.01.2026, 03:40 Uhr 0
GlassWorm Malware neue Mac-Welle mit Krypto-Trojanern
6 minutes read
  • Developers
  • Cybersecurity

GlassWorm Malware: neue Mac-Welle mit Krypto-Trojanern

04.01.2026, 19:51 Uhr 0
Nano Banana 2 Flash Googles schnellste Bild-KI 2026
5 minutes read
  • Künstliche Intelligenz

Nano Banana 2 Flash: Googles schnellste Bild-KI 2026

02.01.2026, 18:14 Uhr 0
ChatGPT-Hardware OpenAI setzt auf Stimme Emotion
6 minutes read
  • Künstliche Intelligenz

ChatGPT-Hardware: OpenAI setzt auf Stimme & Emotion

01.01.2026, 18:22 Uhr 0
Cookie-Einstellungen ändern
  • Impressum
  • Datenschutzerklärung
  • Über uns
  • Redaktionelle Richtlinien
  • Kontakt
  • Facebook
  • x.com
  • WhatsApp
  • Flipboard
  • RSS Feed
Alle Rechte vorbehalten. Copyright © thor.news