Apple stellt seine Strategie im Bereich der Wearables neu auf: Statt weiter an der geplanten High-End-Version des Vision Pro zu arbeiten, die ursprünglich für 2027 vorgesehen war, konzentriert sich das Unternehmen nun auf eine andere Produktkategorie – KI-gestützte Smart Glasses. 
Laut Mark Gurman von Bloomberg hat Apple die Entwicklung des Headsets mit dem internen Codenamen N100 eingefroren, um die Arbeit an einer Brille zu beschleunigen, die direkt gegen Metas Ray-Ban-Kollektion antreten soll.
Dieser Schritt zeigt, dass Apple seine Prioritäten verschiebt. Der Vision Pro brachte spektakuläre Mixed-Reality-Funktionen auf den Markt, doch die hohen Preise und das sperrige Design schränkten die Verbreitung stark ein. Jetzt möchte Apple einen massentauglicheren Ansatz verfolgen: alltagstaugliche Geräte, die KI als zentrales Element einsetzen. Die Markteinführung der neuen Smart Glasses ist für 2026 geplant und soll das nächste große Kapitel in Apples Produktstrategie einleiten.
Im Gegensatz zum Vision Pro werden die Apple-Brillen ohne eingebautes AR- oder VR-Display auskommen. Stattdessen setzen sie auf integrierte Mikrofone, Lautsprecher und Kameras sowie eine deutlich weiterentwickelte Version von Siri. Geplant sind Features wie Benachrichtigungen ohne Handbedienung, Übersetzungen in Echtzeit und kontextbezogene Unterstützung durch KI. Apple will damit ein praktisches Accessoire schaffen, das sich nahtlos in den Alltag integriert, ohne die Komplexität eines Headsets.
Meta hingegen geht aggressiv voran. Die aktuellen Ray-Ban Smart Glasses bieten bis zu acht Stunden Laufzeit, Ultra-HD-Videoaufnahmen in 3K, Live-KI-Support und verbesserte Mikrofone. Das neueste Modell, die Ray-Ban Display, hebt die Latte noch höher: ein eingebautes Display ermöglicht es, Texte zu lesen, Wegbeschreibungen zu sehen, Videos zu schauen oder Live-Übersetzungen darzustellen. Mit 42 Pixeln pro Grad erreicht die Auflösung das Niveau mancher VR-Headsets. Dank einer Helligkeit von bis zu 5000 Nits sind die Brillen sowohl drinnen als auch draußen nutzbar. Kostenpunkt: 799 US-Dollar, inklusive Meta Neural Band – ein Interface, das mithilfe von Elektromyografie (EMG) kleinste Signale der Handmuskulatur erkennt und damit Gestensteuerung ermöglicht.
Apple geht bewusst einen anderen Weg. Anstatt in Displays und auffällige Technik zu investieren, setzt das Unternehmen auf Minimalismus, längere Akkulaufzeit und die Stärke seiner eigenen Software-Ökosysteme. Der Verzicht auf ein Display reduziert Komplexität und Kosten, was die Brillen für eine größere Käuferschicht attraktiver machen könnte.
Die Entscheidung, die Luxus-Version des Vision Pro auf Eis zu legen, spiegelt auch die Realität wider: High-End-Headsets sind teuer, riskant und bislang kaum massentauglich. Smarte KI-Brillen erscheinen dagegen als praktikableres Mittel, um in den Massenmarkt vorzudringen. Eine kürzlich veröffentlichte FCC-Eintragung, die ein neues Gerät mit der Modellnummer A3416 beschreibt, dürfte mit der günstigeren Vision-Pro-Variante N109 zusammenhängen, die als Zwischenschritt auf den Markt kommt, bevor Apple seine KI-Brillen präsentiert.
Klar ist: Apple und Meta steuern auf eine direkte Konkurrenz im Bereich Smart Glasses zu. Während Meta auf Displays und futuristische Steuerung setzt, vertraut Apple auf Eleganz, Schlichtheit und die Integration von Siri. Die nächsten Jahre werden zeigen, welche Strategie sich durchsetzt – und wie genau KI im Alltag der Menschen verankert wird. Der Wettlauf um die Brille der Zukunft hat begonnen.
2 kommentare
vision pro war eh nur was für reiche nerds
ohne Display klingt das schon ziemlich langweilig