
Apple verschiebt laut aktuellen Berichten die geplante Überarbeitung des Vision Pro und richtet seine Ressourcen auf eine AI-Brille aus – ein Kurswechsel, der das Spatial-Computing-Portfolio grundlegend umbaut. Ein interner Beschluss in der Woche vor dem 1. Oktober 2025 soll die Arbeiten am leichteren, günstigeren Vision-Pro-Nachfolger (Codenamen N100) stoppen und Teams in Richtung Brillenprojekt verlagern. Parallel bleibt ein moderates Vision-Pro-Refresh möglich, während die AI-Brille priorisiert wird. Für Nutzer stellt sich damit die Frage: Bleibt das 3.499-Dollar-Headset das Nischenprodukt, während Apple auf alltagstaugliche Brillen zielt?
Vom Headset zur Brille: Was sich ändert
Nach übereinstimmenden Berichten verfolgt Apple zwei Brillentypen: eine iPhone-gekoppelte Variante ohne Display (Codenamen N50, interne Zielrichtung Vorstellung ab 2026 und Marktstart 2027) und eine Display-Brille, deren Entwicklung nun beschleunigt wird (zuvor grob für 2028 verortet). Im Zentrum stehen Sprachsteuerung und On-Device-KI statt schwerer Optik-Stacks und externer Rechenboxen. Das signalisiert: Apple strebt Tragekomfort, Akkulaufzeit und Alltagseinbindung über spezialisierte Pro-Features an – ein klarer Kontrast zum Vision Pro als „Early-Adopter-Workstation“. Gleichzeitig zeigt die Kurskorrektur, dass Content-Lücke, Preis und Formfaktor des Headsets die Marktdurchdringung bislang bremsen.
Warum Apple jetzt Meta & Ray-Ban jagt
Der Strategiewechsel fällt in eine Phase, in der Meta mit Ray-Ban Display (ab 799 US-Dollar inkl. EMG-Wristband) und den sportlichen Oakley Meta Vanguard (ab 499 US-Dollar, Marktstart ab 21. Oktober 2025) den Nutzwert leichter, KI-gestützter Brillen demonstriert. Die schnelle Bedienung per Sprachauslösung und Handgelenks-Gesten, Social-/Fitness-Integration und „always-on“-Tragekomfort adressieren genau jene Alltagscases, die ein schweres XR-Headset selten erfüllt. Apples Fokus auf eine AI-Brille ist daher weniger Rückzug als Antwort auf veränderte Nachfrage – weg vom „Tech-Demo“-Erlebnis, hin zu Wearables, die Fotos, Benachrichtigungen, Navigation oder Assistenz unauffällig in den Alltag mischen. Damit zielt Cupertino direkt auf Metas stärkstes Momentum im Brillen-Segment.
Folgen für Spatial-Computing & Entwickler
Für das Ökosystem bedeutet der Schwenk zwei Dinge: Erstens dürfte Spatial-Computing auf Apple-Seite kurzfristig inkrementell weitergehen (kleinere Vision-Pro-Updates statt großer Generationssprünge). Zweitens verschiebt sich das Schwergewicht für Entwickler in Richtung „Glasses-First“-Erlebnisse: schlanke Voice-Flows, Kamera-/Kontext-Funktionen, Benachrichtigungen und KI-Agenten statt aufwendiger 3D-UIs. Chancen liegen in Reichweite und Nutzungsfrequenz – Risiken in Fragmentierung und unklaren Monetarisierungsmodellen. Und: Apple kommentiert die Berichte nicht; Timelines und Spezifikationen können sich ändern. Für Publisher, App-Studios und Marken ist jetzt der Zeitpunkt, Prototypen für „Heads-Up“-Nutzung und KI-gestützte Mikrointeraktionen zu testen.
Quellen
- Bloomberg – Apple Shelves Vision Headset Revamp to Prioritize Meta-Like AI Glasses (1. Oktober 2025)
- Reuters – Apple halts Vision Pro overhaul to focus on AI glasses (1. Oktober 2025)