von Dieter Schmidt,

Spielkultur: FOVE: Die Revolution der VR-Headsets dank Eyeball-Tracking?

Spielkultur (Sonstiges) von 4Players
Spielkultur (Sonstiges) von 4Players - Bildquelle: 4Players


Schon wieder ein neues VR-Headset? Das könnte man auf den ersten Blick denken. Aber FOVE erweitert den Ausflug in die virtuelle Realität um ein „Eyeball-Tracking“. Alle acht Millisekunden ermittelt laut den Entwicklern ein Infrarotscanner die Bewegungen der Pupille bei einem Qualitätsverlust von nur 0,2 Grad. Neben der normalen Erkennung der Kopfbewegung registrieren die Scanner die Lichtreflektion der Infrarotstrahlen auf der Retina, um daraufhin den Blickwinkel zu errechnen. Die Software soll sogar zwischen dem Fokus auf der unmittelbaren Nähe und dem Blick in die Ferne unterscheiden können – was in Zusammenhang mit einem Unschärfeeffekt eine evidente Minderung der Motion Sickness bedeuten würde. Auch das bloße Blinzeln könnte das Bedienen der Menüs per Controller überflüssig machen. Das 400 Gramm schwere VR-Headset soll in der finalen Fassung ein Bildschirm mit einer Auflösung von 2560 x 1440 Pixel besitzen und eine Bildschirmdiagonale von 14,7 Zentimeter anbieten. Neben der Anwendung im Gaming-Bereich zielen die Entwickler auf den medizinischen Sektor: Schon jetzt konnten behinderte Menschen mit Pupillenbewegungen Handlungen ausführen, wie zum Beispiel ohne Hände ein Klavier spielen. Das vielversprechend FOVE kann man jetzt bei Kickstarter unterstützen, um das SDK-Kit zu erhalten.

Letztes aktuelles Video: FOVE VR-Headset




Kommentare

unknown_18 schrieb am
@Liesel Weppen: doch, es hat mit Fachwissen zu tun, denn du hast schlicht keine Ahnung von VR und EyeTracking und wirfst hier mit Argumenten um dich die hier überhaupt nicht zum tragen kommen. Und wie schon angedeutet wurde stimmt davon auch nur ein Teil. Wenn ich etwas auch nur wenige cm im Vordergrund vor meinem Monitor anvisiere kann ich das Logo auf dem Monitor schon nicht mehr richtig erkennen weil unscharf, egal ob mit beiden oder nur mit einem Auge, warum sollte man dann das Logo in der VR Brille in einer solchen Situation scharf in vollen Details berechnen? Verschwendete Grafikpower.
Primär geht es hier bei der Unschärfe darum Rechenzeit für die Grafik zu sparen und damit die nötige Power der Grafikkarte zu reduzieren bzw. dessen Power mehr für scharfen Teil des Bildes zu nutzen um so eine höhere Detailfülle in diesem Bereich rendern zu können. Auch kann man dadurch einen höhere Auflösung nutzen, weshalb das Fove auch die höchste Auflösung aller bisher angekündigter ernstzunehmender VR Brillen hat. Und auch HTC und Oculus werden eher früher als später EyeTracking mit einbauen und es u.a. dafür verwenden. Ich rechne bei beiden bereits bei der 2. Konsumer Version fest damit.
Liesel Weppen hat geschrieben:Ja, wenn man sowas wie Tiefenunschärfe machen will, dann braucht man wenig Latenz und genaues Tracking, dazu habe ich jedoch gar nichts geschrieben.
Nö, natürlich hast du dazu nichts geschrieben:
Liesel Weppen hat geschrieben:Ein Unschärfeeffekt gemäß der Fokusierung der Augen ist unnötig und hilft nicht gegen Motion Sickness, sondern verstärkt diese eher noch, va. wenn er nicht 100% exakt funktioniert.
Man sollte schon wissen was man selbst geschrieben hat...
beatnicker schrieb am
Liesel Weppen hat geschrieben:Nein, was nicht fokussiert ist, wird nicht unscharf, du hast es nur nicht mehr im Fokus sondern nur noch im periphären Sehfeld.
Doch, es wird unscharf. Denn die Linse im Auge kann nur eine Bildebene fokussieren. Und die Ebenen davor und dahinter liegen somit außerhalb des Fokus und werden nicht scharf (auf der Netzhaut) abgebildet.
Wäre es so wie du sagst, bräuchte das Auge keine Linse und Kurz- und Weitsichtigkeit würden nicht existieren.
Liesel Weppen schrieb am
Nein, was nicht fokussiert ist, wird nicht unscharf, du hast es nur nicht mehr im Fokus sondern nur noch im periphären Sehfeld.
Ja, wenn man sowas wie Tiefenunschärfe machen will, dann braucht man wenig Latenz und genaues Tracking, dazu habe ich jedoch gar nichts geschrieben.
Das Beispiel mit dem Fensterrahmen ist nicht völlig fail, denn es ist störend. Man könnte das mit Eyetracking korrigieren, das ist richtig, man könnte diese Tiefenunschräfe auch einfach weglassen, dann müsste man gar nichts korrigieren. Wenn du dann aus dem Fenster siehst, fokusieren deine Augen automatisch auf "fern", weil das Angesehen ja (wirklich) weit weg ist, und das drumherum rückt automatisch ins periphäre Sehfeld und wird dadurch automatisch "verschwommen" gesehen.
In Filmen ist der Effekt manchmal fehl am Platz, richtig eingesetzt aber durchaus sinnvoll. Denn ein Film ist nunmal 2D und hat damit keine Tiefe. Tiefenunschärfe in einem 2D Bild verstärkt aber den räumlichen Eindruck. Sobald man einen Film aber in 3D ansieht, stört das nur noch, weil man eben genau wegen der Unschärfe umfokusieren will, aber es eben nicht geht.
Das hat nichts mit Fachwissen zu tun, sondern eine weitverbreitete Fehlinformation, dass Menschen Tiefenunschärfe "sehen". Genauso wie MotionBlur, das menschliche Auge sieht kein Motionblur, kann es auch gar nicht, denn es hat keine "Belichtungszeit pro Bild".
unknown_18 schrieb am
Schon lange nicht mehr so viel Unsinn in einem Post gelesen...
Natürlich wird alles unscharf was näher dran oder weiter weg ist als der Punkt, der mit den Augen fokusiert ist.
Und danke, aber die Entwickler wissen schon selbst sehr genau wie wichtig es ist, dass das Eye-Tracking so wenig Latenz wie nur möglich haben sollte, weswegen es bereits jetzt schon mit 120Hz und 0,2° Genauigkeit arbeitet.
Dein Beispiel (eigentlich alle Beispiele) mit dem Fensterrahmen ist völliger fail, weil das Spiel nun mal nicht erkennen kann wo du gerade hinsiehst sondern nur davon ausgeht, dass du gerade nur das betrachtest was außerhalb des Fensters ist. Würde das Spiel wissen, dass du gerade den Rahmen betrachtest, würde der Rahmen scharf sein und alles draußen unscharf.
Das einzige worüber man streiten könnte wäre die Stärke der Unschärfe, da wird mitunter übertrieben. Und ja, in Filmen, wo alles sowieso starr ist weil nun mal ein Film und keine dynamische Computer Grafik, ist die Unschärfe wirklich sehr oft fehl am Platz, völlig egal ob 3D oder nicht.
Bitte sprich nur von Dingen, von denen du auch Ahnung hast und verbreite hier nicht so ein derbes Falschwissen, das viele hier wieder als richtig aufschnappen könnten...
Liesel Weppen schrieb am
Ein Unschärfeeffekt gemäß der Fokusierung der Augen ist unnötig und hilft nicht gegen Motion Sickness, sondern verstärkt diese eher noch, va. wenn er nicht 100% exakt funktioniert.
Das menschliche Auge "sieht" keine Tiefenunschärfe, das ist eine Erfindung der Filmindustrie/Fotografie und wird dort als Stilmittel eingesetzt. Wie so vieles wurde sowas völlig Gedankenlos in die Spielewelt übernommen.
In einigen Demos der ORCV1 ist mir z.B. schon negativ aufgefallen, dass wenn man z.B. aus einem Fenster schaut, die Umgebung draussen scharf gerendert wurde, aber der nahe Fensterrahmen und Wand dabei unscharf wurde. Das stört ungemein.
Man sieht den gleichen Effekt bei 3D-Filmen. Wenn ein Film mit 3D produziert wird, sollte man einfach keine Tiefenunschärfe verwenden. Wenn sich z.B. fokusierte (und damit scharf dargestellte) Schauspieler im Vordergrund unterhalten und der weiter hintenliegende Hintergrund wegen Tiefenunschärfe verschwommen dargestellt wird, stört das das Auge erheblich, weil man gerade wegen den Schärfeunterschieden permanent versucht zu fokusieren, aber weil das 3D-Material nunmal "fix" ist, geht das natürlich nicht. Man muss wie bei diesen alten 3D-Bildern in irgendwelchen Mustern auf die Leinwand "schielen", damit man das ertragen kann.
schrieb am