Oculus Rift Crystal Cove ausprobiert: Körpersteuerung und OLED-Display
Oculus hat einen weiteren Prototyp des Rifts gezeigt: Crystal Cove erweitert das VR-Headset um eine externe Kamera, die Körperbewegungen registriert, das neue OLED-Display halbiert den Lag und damit die Bewegungsunschärfe.
Auf der Elektronikmesse CES 2014 hat Oculus unter dem Codenamen "Crystal Cove" die aktuelle Version des VR-Headsets Rift vorgestellt. Durch das OLED-Panel liegt die Reaktionszeit des Displays bei weit unter einer Millisekunde, wodurch die Bewegungsunschärfe beim Darstellen eines neuen Frames praktisch verschwindet. Zudem hat Oculus die Rift um LED-Sensoren erweitert, die von einer externen Kamera registriert werden. Hierdurch können die Entwickler Körperbewegungen wie nach vorne beugen oder um die Ecke lehnen in Spiele integrieren, was die Immersion stark verbessert.
Das Rift ist wie kaum ein anderes VR-Headset für PC-Spiele ausgelegt, eine schnelle Reaktionszeit ist daher gerade für flotte Shooter unerlässlich ("Low Persistence"). Daher hat Oculus wie erwartet das IPS-Display durch ein OLED-Panel ausgetauscht, die angesichts der Glyph etwas grobkörnig wirkende 1080p-Auflösung (Stichwort sichtbare Subpixel) bleibt. Ob neben dem Einschub von schwarzen Frames auch die Frequenz auf 120 Hz pro Auge erhöht wurde, wollte Oculus nicht verraten - subjektiv erschien uns dies möglich.
Bereits die OLED-Technik sorgt mit einer Reaktionszeit von praktisch null für eine angenehmere Darstellung - sofern der PC konstant eine hohe Framerate liefert, die im Idealfall nur doppelt gepuffert und mit nur einem Bild verzögert vorberechnet wird (Pre-Render-Limit). Diesen Teil des Darstellungsprozesses kann das Rift nicht beeinflussen, er ist aber sehr wichtig für die Immersion und eine möglichst geringe Motion Sickness - gerade in schnelleren Spielen, die eine direkte Eingabe erfordern.
Die zweite Neuerung nennt sich "Positional Tracking": Eine Vielzahl an Infrarot-LEDs an der Front und den Seiten des Rifts werden von einer externen Kamera erfasst, das System erkennt daher Bewegungen wie sich nach vorne oder zur Seite beugen. In Kombination mit dem bekannten Headtracking ergibt sich somit eine sehr natürliche Interaktion mit der virtuellen Umgebung. In einer Art Tower Defense im Stil der Elemental-Techdemo auf Basis der Unreal Engine 4 beugen wir uns daher aus der Vogelperspektive über das Spielfeld, betrachten Spielfiguren aus der Nähe und blicken immer wieder zur Seite, um zu schauen, ob neue Gegner gegen unsere Verteidigungsanlagen anrennen.
Als zweite Demo nahmen wir im Cockpit eines Raumschiffes aus Eve Valkyrie Platz. Per Kopfbewegungen und Körperdrehungen werden kurz die Instrumente inspiziert, dann rauscht der Gleiter ins All. Die Steuerung erfolgt zwar prinzipiell per Gamepad, das Umschauen im Cockpit und das Anvisieren von Gegnern hingegen erfolgt per Positional Tracking sowie Headtracking. Das immersive Gefühl dieser Präsentation lässt sich nur schwer in Worte fassen - es wirkt aber so real, dass wir fast schon aus dem schweren Stuhl zu kippen drohten, in dem wir saßen.
Meines Erachtens nach sind alle Bedenken bezüglich der ausreichenden Leistung bei...
Ja ich auch....von diesem Filmen....da kann man zwischen...Leuten sitzen... Wer solche...
Find ich voll gut :)
Ich habe in der Vorlesung mal wieder ein lustiges Wort kennengelernt - "Borgismus" :D...