Apples neues Headset kommt mit einem komplett neuen Chip.

Der Vision Pro bringt neues Apple-Silizium mit, den R1-Chip, der für die Echtzeit-Datenverarbeitung aller integrierten Sensoren bestimmt ist. Es ist für die Augen-, Hand- und Kopfverfolgung, die verzögerungsfreie Wiedergabe der Benutzerumgebung im Video-Passthrough-Modus und andere visionOS-Funktionen verantwortlich.

Durch die Entlastung des Hauptprozessors und die Optimierung der Leistung reduziert sich der R1 Reisekrankheit wird auf ein nicht wahrnehmbares Maß reduziert, unabhängig davon, ob das Headset in Augmented Reality oder Virtual Reality verwendet wird Modus. Lassen Sie uns untersuchen, wie der Apple R1-Chip funktioniert und mit dem Haupt-M2-Chip verglichen wird, welche Vision Pro-Funktionen er ermöglicht und vieles mehr.

Was ist Apples R1-Chip? Wie funktioniert es?

Der Apple R1, nicht der Haupt-M2-Chip, verarbeitet über seine zwölf Kameras, fünf Sensoren und sechs Mikrofone einen kontinuierlichen Strom von Echtzeitdaten, die dem Vision Pro zugeführt werden.

instagram viewer
Bildquelle: Apfel

Zwei externe Hauptkameras zeichnen Ihre Welt auf und übertragen jede Sekunde über eine Milliarde Pixel auf die 4K-Bildschirme des Headsets. Darüber hinaus verfolgen ein Paar Seitenkameras zusammen mit zwei unten angebrachten Kameras und zwei Infrarotstrahlern Handbewegungen aus einer Vielzahl von Positionen – selbst bei schlechten Lichtverhältnissen.

Zu den nach außen gerichteten Sensoren gehören auch der LiDAR-Scanner und die TrueDepth-Kamera von Apple, die a erfassen Tiefenkarte Ihrer Umgebung, sodass Vision Pro digitale Objekte genau in Ihrer Umgebung positionieren kann Raum. Im Inneren verfolgen ein LED-Ring um jeden Bildschirm und zwei Infrarotkameras Ihre Augenbewegungen, die die Grundlage für die visionOS-Navigation bilden.

Der R1 hat die Aufgabe, die Daten aller dieser Sensoren, einschließlich der Trägheitsmesseinheiten, mit unmerklicher Verzögerung zu verarbeiten. Dies ist von größter Bedeutung, um das Raumerlebnis reibungslos und glaubwürdig zu gestalten.

Wie schneidet der Apple R1 im Vergleich zu M1 und M2 ab?

Bildquelle: Apfel

M1 und M2 sind Allzweckprozessoren, die für Mac-Computer optimiert sind. Der R1 ist ein Coprozessor mit schmalem Fokus, der für reibungslose AR-Erlebnisse entwickelt wurde. Es erledigt seine Arbeit schneller als das M1 oder M2 und bietet Vorteile wie ein verzögerungsfreies Erlebnis.

Apple hat weder angegeben, wie viele CPU- und GPU-Kerne der R1 hat, noch hat er die CPU-Frequenz und den RAM detailliert angegeben, was einen direkten Vergleich zwischen R1, M1 und M2 erschwert.

Die Hauptdomänen des R1 sind Augen- und Kopfverfolgung, Handgesten und Echtzeit-3D-Kartierung über den LiDAR-Sensor. Durch die Auslagerung dieser rechenintensiven Vorgänge kann der M2 die verschiedenen visionOS-Subsysteme, Algorithmen und Apps effizient ausführen.

Die Hauptmerkmale des R1-Chips des Vision Pro

Der R1 verfügt über diese Schlüsselfunktionen:

  • Schnelle Abwicklung: Die speziellen Algorithmen und die Bildsignalverarbeitung im R1 sind für das Verständnis von Sensor-, Kamera- und Mikrofoneingängen optimiert.
  • Geringe Wartezeit: Die optimierte Hardware-Architektur führt zu einer sehr geringen Latenz.
  • Energie-Effizienz: Dank seiner effektiven Speicherarchitektur und dem 5-nm-Herstellungsprozess von TSMC erledigt der R1 eine bestimmte Reihe von Aufgaben mit minimalem Energieverbrauch.

Auf der anderen Seite tragen das Dual-Chip-Design des Vision Pro und die Raffinesse des R1 zum hohen Preis und der zweistündigen Akkulaufzeit des Headsets bei.

Welche Vorteile bietet der R1 dem Vision Pro?

Der R1 ermöglicht eine präzise Augen- und Handverfolgung, die „einfach funktioniert“. Um beispielsweise in visionOS zu navigieren, richten Sie Ihren Blick auf Schaltflächen und andere Elemente.

Bildquelle: Apfel

Der Vision Pro nutzt Handgesten um Elemente auszuwählen, zu scrollen und mehr. Die Raffinesse und Präzision der Augen- und Handverfolgung haben es den Ingenieuren von Apple ermöglicht, ein Mixed-Reality-Headset zu entwickeln, das keine physischen Controller erfordert.

Die Tracking-Präzision und die minimale Verzögerung des R1 ermöglichen zusätzliche Funktionen wie Lufteingabe auf der virtuellen Tastatur. Der R1 ermöglicht außerdem eine zuverlässige Kopfverfolgung – entscheidend für die Schaffung einer räumlichen Computeroberfläche, die den Benutzer umgibt. Auch hier kommt es auf Präzision an – Sie möchten, dass alle AR-Objekte ihre Position beibehalten, unabhängig davon, wie Sie Ihren Kopf neigen und drehen.

Bildquelle: Apfel

Das räumliche Bewusstsein ist ein weiterer Faktor, der zum Erlebnis beiträgt. Der R1 erfasst Tiefendaten vom LiDAR-Sensor und der TrueDepth-Kamera und führt eine 3D-Kartierung in Echtzeit durch. Durch Tiefeninformationen kann das Headset seine Umgebung, wie Wände und Möbel, verstehen.

Dies wiederum ist wichtig für die AR-Persistenz, die sich auf die feste Platzierung virtueller Objekte bezieht. Es hilft Vision Pro außerdem dabei, den Benutzer zu benachrichtigen, bevor er auf physische Objekte stößt, und trägt so dazu bei, das Unfallrisiko bei AR-Anwendungen zu verringern.

Wie lindert die R1-Sensorfusion die AR-Reisekrankheit?

Das Dual-Chip-Design des Vision Pro entlastet die Sensorverarbeitung vom Haupt-M2-Chip, auf dem das visionOS-Betriebssystem und die Apps ausgeführt werden. Entsprechend der Pressemitteilung von Vision ProStreamt der R1 Bilder von den externen Kameras innerhalb von 12 Millisekunden oder achtmal schneller als ein Wimpernschlag auf die internen Displays, wodurch Verzögerungen minimiert werden.

Verzögerung bezieht sich auf die Latenz zwischen dem, was die Kameras sehen, und den Bildern, die auf den 4K-Bildschirmen des Headsets angezeigt werden. Je kürzer die Verzögerung, desto besser.

Reisekrankheit tritt auf, wenn es eine wahrnehmbare Verzögerung zwischen dem Input gibt, den Ihr Gehirn von Ihren Augen erhält, und dem, was Ihr Innenohr wahrnimmt. Es kann in vielen Situationen auftreten, auch in einem Vergnügungspark Boots- oder Kreuzfahrtfahrt, während der Verwendung eines VR-Geräts usw.

VR kann Menschen krank machen aufgrund von Sinneskonflikten, die zu Reisekrankheitssymptomen wie Orientierungslosigkeit, Übelkeit, Schwindel, Kopfschmerzen, Überanstrengung der Augen, Sitzen, Erbrechen und anderen führen.

VR kann auch schädlich für Ihre Augen sein aufgrund einer Überanstrengung der Augen, zu deren Symptomen schmerzende oder juckende Augen, Doppeltsehen, Kopfschmerzen und Nackenschmerzen gehören. Manche Menschen können mehrere Stunden nach dem Abnehmen des Headsets eines oder mehrere dieser Symptome spüren.

Als Faustregel gilt, dass ein VR-Gerät die Anzeige mindestens 90 Mal pro Sekunde (FPS) aktualisieren sollte und die Bildschirmverzögerung unter 20 Millisekunden liegen sollte, um eine Reisekrankheit zu vermeiden.

Mit der angegebenen Verzögerung von nur 12 Millisekunden reduziert das R1 die Verzögerung auf ein unmerkliches Maß. Während das R1 dabei hilft, die Auswirkungen der Reisekrankheit zu minimieren, berichteten einige Vision Pro-Tester von Reisekrankheitssymptomen, nachdem sie das Headset mehr als 30 Minuten lang getragen hatten.

Spezialisierte Apple Silicon Coprozessoren bringen große Vorteile

Für Apple sind spezialisierte Prozessoren kein Unbekannter. Im Laufe der Jahre hat das Siliziumteam mobile und Desktop-Chips hergestellt, um die die Branche beneidet.

Apple-Siliziumchips sind in hohem Maße auf spezielle Coprozessoren angewiesen, um bestimmte Funktionen zu bewältigen. Die Secure Enclave verwaltet beispielsweise biometrische Daten und Zahlungsdaten sicher, während die Neural Engine KI-Funktionen beschleunigt, ohne den Akku zu zerstören.

Sie sind perfekte Beispiele dafür, was erreicht werden kann, wenn man einen hochfokussierten Coprozessor für die richtigen Aufgaben hat. Den Hauptprozessor für alles nutzen.