
Was genau hinter der Ankündigung steckt
Meta bringt Bewegung in die Speicherfrage großer KI-Rechenzentren: Vorgestellt wurde eine Vision, bei der E2-SSDs mit bis zu 1 Petabyte (1 PB) pro Laufwerk die Speicherdichte massiv erhöhen und damit GPU-Scale-Compute auf der Storage-Seite flankieren. Kern der Idee ist, QLC-Flash (vier Bit pro Zelle) in einem auf Kapazität optimierten Gehäuseformat so zu bündeln, dass weniger Laufwerke pro Rackschiene nötig sind, der Energiebedarf pro Terabyte sinkt und der Betrieb in GPU-Racks einfacher skaliert. Der Vorstoß kommt direkt nach dem OCP-Summit 2025, wo offene Rechenzentrumsstandards rund um KI-Racks und Speicher im Fokus standen. Da sehr aktuelle Primärquellen rar sind, stützt sich die Berichterstattung neben Metas Vision auf Hintergrundanalysen aus den vergangenen Monaten; neue technische Details werden fortlaufend nachgereicht, sobald verfügbar.
E2-SSDs: Formfaktor, Zielbild und Abgrenzung
Der E2-Formfaktor entstammt dem EDSFF-Ökosystem (Enterprise & Data Center SSD Form Factor) und zielt explizit auf höchste Kapazitäten: In der Spitze soll ein einzelnes Laufwerk perspektivisch 1 PB QLC-Flash aufnehmen. Im Gegensatz zu verbreiteten E1/E3-Varianten priorisiert E2 die maximale Zahl an NAND-Packages je Modul und akzeptiert dafür ein größeres Gehäuse sowie eine höhere thermische Budgetierung pro Laufwerk. In der Praxis bedeutet das: weniger einzelne SSDs, dafür deutlich größere Einheiten, die eine hohe Byte-Dichte pro Höheneinheit erreichen. Für Betreiber verschiebt sich damit die Optimierung weg von „IOPS pro Laufwerk“ hin zu „Euro und Watt pro Terabyte“ – genau dort, wo Archive, Data Lakes und große KI-Datasets („Warm-Data“) wirtschaftlich entscheiden.
Warum E2-SSDs zu GPU-Scale-Compute passen
Große KI-Trainingscluster wachsen rackweise. Während GPU-Leistung und HBM-Speicher in klaren Stufen skalieren, war die Speicherseite bislang ein Flickenteppich aus 2,5-Zoll-SSDs, E1/E3-Modulen und externen Speichershelfs. Metas Vision adressiert diese Lücke: E2-SSDs sollen die Speicher-Skalierung mit der GPU-Skalierung synchronisieren, sodass Betreiber Rechenschränke konsistenter bestücken, Stromschienen passender dimensionieren und Luft-/Flüssigkühlung durchgängig planen können. Zugleich deuten Branchenbeobachter an, dass klassische 2,5-Zoll-Formfaktoren ab Ende 2026 zunehmend verdrängt werden – ein Zeitfenster, in dem E2 als Kapazitäts-Ersatzkandidat in Frage kommt. Für KI-Workloads, die riesige, überwiegend leselastige Datasets vorhalten müssen, verspricht das einen robusten Kompromiss aus Dichte, Kosten und ausreichender sequentieller Performance.
Technische Leitplanken: QLC-Flash, Leistung und Energie
QLC-Flash ist der Schlüssel zur Kapazität. Vier Bit pro Zelle senken die Kosten pro Terabyte und erlauben viel NAND auf kleinem Raum. Zugleich bringt QLC Eigenheiten mit: geringere Schreibausdauer als TLC, empfindlichere Latenzen bei Random-Writes und Bedarf an großen SLC-Caches, Wear-Leveling-Optimierungen und Datenplatzierung, die zur Workload-Temperatur passen. Das E2-Design begegnet dem mit mehr physischem Platz für Controller, DRAM-Caches und Energieschutz (Kondensatoren), dazu einer großzügigeren thermischen Hülle. In Summe lässt sich die Leistung pro Terabyte so planbar gestalten, wie es „Warm-Data“ benötigt: zügige sequentielle Durchsätze, viele gleichzeitige Leseströme, kontrollierte Schreibfenster – nicht die Spitzen-IOPS eines NVMe-Hochleistungs-Laufwerks, aber ein deutlich günstigeres Euro-/Watt-/TB-Profil.
Integration ins Rack: Dichte, Kühlung, Serviceability
E2 setzt auf das etablierte EDSFF-Steckökosystem und ist für Hot-Swap sowie Front-Serviceability gedacht – wichtig in Racks, die dicht gepackt mit GPUs, Netzwerk und Stromverteilern sind. Da E2-Module thermisch höher budgetiert werden können als klassische Datacenter-SSDs, müssen Chassis- und Rack-Designer stärkere, aber zielgerichtete Luftführung vorsehen oder Flüssigkühlung im Blick behalten. Der Vorteil: Anstatt dutzende kleine Laufwerke zu verteilen, lassen sich wenige, große Module mit klarer Kühlkette betreiben. Für Betreiber heißt das: weniger Kabel, weniger Backplanes, weniger potenzielle Ausfallpunkte – und eine Bestandsführung, die Kapazitäten in o.g. Größenordnungen einfacher plant. Gleichzeitig bleibt die Herausforderung, für QLC die richtige Mischung aus Snapshots, Erasure Coding, Datenplatzierung und Rebuild-Strategien zu finden, damit Mean-Time-to-Restore bei sehr großen Laufwerken kalkulierbar bleibt.
Wirtschaftliche Wirkung: Kosten, Energie und Flächenbedarf
Auf der Kostenseite visiert die Branche mit E2 eine signifikante Reduktion der Euro/TB im Vergleich zu TLC-Alternativen an – getragen von QLC-Skaleneffekten und weniger mechanischen Komponenten pro bereitgestelltem Terabyte. Gleichzeitig sinkt die Energie pro TB, wenn große Module im optimalen Effizienzpunkt betrieben werden. Für Betreiber von KI-Plattformen zählt diese Bilanz doppelt: Datasets werden größer und „wärmer“, während die Rechenleistung je Rack explodiert. Ein Formfaktor, der Kapazität, Energie und Wartung planbar auf Racks skaliert, reduziert die Total Cost of Ownership (TCO) entlang mehrerer Achsen: weniger Höheneinheiten pro Petabyte, weniger Verkabelung/Komponenten und – mit dem richtigen Dateisystem – schnellere, konsistente Datenversorgung für Trainings- und Inferenzpipelines.
Offene Punkte und Realitätscheck
So vielversprechend das Konzept ist, einige Fragen bleiben offen: Wie schnell vereinheitlicht die Industrie das E2-Ökosystem (Toleranzen, Kühler-Varianten, Backplane-Layouts)? Welche Endurance-Profile verlangen KI-Plattformen wirklich – und wie lassen sie sich mit QLC-Schreibmustern verheiraten? Wie entwickelt sich die Rebuild-Zeit bei größeren Arrays, und welche Rolle spielen verteilte Dateisysteme, die Replikation/Erasure-Coding intelligent an die Modulgröße anpassen? In der Praxis wird E2 zunächst klassische, kapazitätsstarke HDD-Tiers nicht überall ersetzen, aber dort, wo „Warm-Data“ häufig gelesen, seltener geschrieben und racknah vorgehalten werden muss, kann der Formfaktor eine Lücke schließen. Wichtig ist, Anwendungsprofile ehrlich zu klassifizieren und die Speicherpyramide – HBM, GPU-Direct-Storage, NVMe-Tiers und Objekt-Speicher – als Gesamtsystem zu betrachten.
Fazit: Speicher skaliert zur KI – und E2 setzt den Takt
Metas Vorstoß markiert den nächsten Evolutionsschritt in KI-Rechenzentren: E2-SSDs mit bis zu 1 PB pro Laufwerk holen die Speicherseite dorthin, wo GPU-Racks längst sind – in die Welt des Scale-out je Schrank. Die Branche arbeitet bereits an Prototypen im dreistelligen Terabyte-Bereich; Standards und Referenz-Racks aus dem OCP-Umfeld schaffen den Rahmen, um aus Einzelstücken ein Ökosystem zu formen. Bis die 1-PB-Marke im Feld ankommt, sind thermische, logistische und datenorganisatorische Hausaufgaben zu lösen. Die Richtung ist jedoch klar: Weniger Laufwerke, mehr Kapazität, bessere TCO – und Speicher, der mit KI-Lasten nicht nur Schritt hält, sondern sie planbar trägt.
Quellen
- A Meta Vision for GPU Scale Compute with 1PB E2 SSDs — ServeTheHome (2025-11-02)
- OCP E2, One Form Factor To Rule Them All — Forbes (2025-10-22)











