von Michael Krosta,

Lobgesang auf HDR von Insomniac Games und Naughty Dog

Bei den Entwicklerstudios Naughty Dog und Insomniac Games freut man sich auf die neuen Möglichkeiten, die mit der Unterstützung von HDR (High Dynamimc Range) Einzug in die visuelle Darstellung von Videospielwelten halten werden. Für Al Hastings, Chief Architect bei Insomniac Games, stellt HDR sogar eine noch größere Bedeutung für die Bildqualität dar als die höhere 4K-Auflösung. Dies hat er laut IGN vor allem bei der nachträglichen Arbeit an Ratchet & Clank für den Pro-Patch festgestellt, wo vor allem HDR für einen wahren Kick beim grafischen Upgrade gesorgt habe, während man für die aktuellen Entwicklung des Spiderman-Titels von Anfang an die neuen Technologien unterstütze.

Christian Gyrling, Lead Programmer bei Naughty Dog, stimmt umgehend in den Lobgesang ein: "Ja, mein ganz persönliches Gefühl abseits der Unternehmenpolitik: HDR ist wirklich die Zukunft für mich und das Studio. Wir sind schon sehr begeistert davon, unseren Künstlern zu erlauben, diese Farben zu nutzen." Für ihn besitzen die Grafik-Designer jetzt viel mehr Werkzeuge, um ihre Visionen so umzusetzen, wie sie es sich vorgestellt haben, ohne weiter von den limitierten Farbpaletten üblicher Fernseher eingeschränkt zu werden.

Gleichzeitig hofft man, dass sich auch die großen TV-Hersteller möglichst schnell einen Standard bei ihren Display-Technologien schaffen können. Momentan würde es mit Edge-lit-TVs, Rückprojektion-Fernsehern, OLED-Bildschirmen etc. zu viele unterschiedliche Modelle geben und keines von ihnen sei in der Lage, Farben so darzustellen, wie es sich viele Spiele-Entwickler wünschen. Zwar gebe es mit HDR10 einen gewissen Standard, doch würde das Bildsignal durch die diversen TV-Technologien immer wieder verfälscht. Deshalb plädiert man auf einen Standard für die Darstellung von Videospielen, quasi ein Game-Mode für HDR unter den Bildeinstellungen.
Quelle: IGN

Kommentare

mindfaQ schrieb am
Ist für sehr helle oder dunkle Szenen sicher ganz nett. Leider kann man den Effekt auf einem normalen Monitor ja nicht nachvollziehen. Vielleicht ist es wenig wie der Unterschied von einem TN-Panel mit schlechter Farbwiedergabe und einem IPS-Panel mit guter Farbwiedergabe - bei dem einen sehen Gradienten sehr abgehakt aus und man sieht leicht Grenzen zwischen einzelnen Farben und beim anderen sieht der Übergang gleichmäßiger aus.
Temeter  schrieb am
Balmung hat geschrieben:Es ging ja gerade nur um die Helligkeit bzw. den Kontrast. dass das Bild auch noch in min. 10bit vorliegen muss, sollte ja klar sein.
HDR heißt ja im Grunde nur, dass jede der 3 Farben Rot, Grün, Blau in höheren Abstufungen vorhanden ist (1024 statt nur 256 Stufen) und um die Abstufungen alle auch sichtbar zu machen braucht es deutlich mehr Kontrast und Helligkeit. Ansonsten sieht 1023, 1023, 1023 RGB (das hellste weiß) genauso aus wie 1022, 1022, 1022. Oder halt jeweils 4095/4094 bei 12bit. ^^
Ne, HDR ist ein bischen komplexer, schließlich ist das nicht nur HDR im Sinne von mehr Farben+mehr Kontrast, wie schon ältere Monitore beworben wurden, sondern ein ganz neuer Standard. Der kann z.B. die Helligkeit des Materials via Metadaten selbst festlegen, was der Fernseher dann entsprechend durchreicht, während das Farbspektrum iirc eher einer Kurve entspricht, und nicht mehr linearen Kombination, um Platz zu sparen. Auch ein Grund, warum aktuelles Free-TV überhaupt nicht kompatibel zu HDR ist, weil es die ganzen Metadaten nicht weiterleiten kann.
Ganz durchgecheck habe ich es noch nicht, aber scheint doch ordentlich komplexer als mehr Farben+Kontrast zu sein.
unknown_18 schrieb am
Es ging ja gerade nur um die Helligkeit bzw. den Kontrast. dass das Bild auch noch in min. 10bit vorliegen muss, sollte ja klar sein.
HDR heißt ja im Grunde nur, dass jede der 3 Farben Rot, Grün, Blau in höheren Abstufungen vorhanden ist (1024 statt nur 256 Stufen) und um die Abstufungen alle auch sichtbar zu machen braucht es deutlich mehr Kontrast und Helligkeit. Ansonsten sieht 1023, 1023, 1023 RGB (das hellste weiß) genauso aus wie 1022, 1022, 1022. Oder halt jeweils 4095/4094 bei 12bit. ^^
Temeter  schrieb am
Balmung hat geschrieben:Sag doch einfach für richtiges HDR braucht man einen sehr hohen Kontrast, dann kommt das in etwa aufs selbe raus, weil OLED hat den höchsten Kontrast. ;)
Aber wenn du sehr hohen Kontrast hast, hast du immer noch kein HDR :P
schrieb am