Kommentar

hundertprozent subjektiv

KW 50
Montag, 07.12.2020

Starke Technik macht gute Spiele besser


Endlich! Ja, ich kann es nicht anders sagen: Endlich sind 60 Frames pro Sekunde auch auf der Konsole der vorläufige Standard. Ein Spiel wie Demon‘s Souls wurde mit der magischen 60 im Hinterkopf entwickelt. Assassin‘s Creed: Valhalla verfolgt eher eine stabile 16,6ms-Frametime als eine (oftmals nutzlose), native 4K-Auflösung. Freunde, wir haben es geschafft. Endlich ist mein Wohnzimmer da, wo mein Schreibtisch schon seit ein paar Jahren ist. In der Videospiel-Gegenwart.

Und dann diese Ladezeiten, Leute. Ach du meine Güte. Ihr könnt euch wirklich nicht vorstellen, wie sehr ich mich gefreut habe, als ich das erste Mal bei Spider-Man innerhalb von Sekunden im Spiel war. Nicht in irgendeinem Menü – nein, direkt in New York. Oder wie viel weniger mich ein Tod bei Demon‘s Souls frustet, weil ich nicht auch noch mit 60 oder mehr Sekunden in einem Ladebildschirm voller „toller“ Tipps bestraft werde, wie anno 2015 zum Release von Bloodborne.

Gut, auf dem PC könnten das wohl viele Spiele schon länger, immerhin gibt es hier die PCI 3.0 Schnittstelle für flotte NVMe-SSDs schon ein paar Jährchen. Nur hat sich leider bisher kaum ein Entwickler dazu herabgelassen, mühsam dafür zu optimieren. Warum auch, immerhin musste man auf der Konsole jahrelang auch noch alte 5400 RPM-HDDs durchziehen und Flash-Speicher war notorisch teuer. Das ändert sich jetzt – und könnte PC-Spieler in die ungewohnte Situation bringen, aufgrund von Konsolentiteln ihre Systeme aufrüsten zu müssen, denn auch in Desktop-Rechnern sind die jetzt notwendigen PCIe 4.0 SSDs noch lange kein Standard.

Aber ich schweife ab: Genau dieser Schritt - keine Ladezeiten und der Fokus auf 60 Frames pro Sekunde – ist für mich das Versprechen der nächsten Generation. Und so sehr ich Jörg auch zustimme, der in seiner Kolumne erklärt, dass Hardware auch ein Fetisch sein kann und noch keine Technik ein schlechtes Spiel zu einem guten gemacht hat, so sehr möchte ich unterstreichen: starke Technik macht gute Spiele in meinen Augen aber besser. Und zwar zum Teil deutlich.

Dabei geht es mir aber weniger um ein zwei TeraFLOP hier, Takt- und Datenraten dort (obwohl der Tech-Nerd in mir sich durchaus freut, wenn es an den Benchmark geht). Denn beide neue Konsolen sind schöne Gaming-Maschinen die beide sehr viel Potential bergen, was jetzt „nur noch“ von den Studios gehoben werden muss. Und es geht mir auch nicht um 2-3 Pixel hier oder eine etwas schärfere Textur da. Mir geht es eher um das große Ganze. Nämlich wie die Technik ein Spiel beeinflussen kann – und mich dabei auch schon um eigentlich richtig tolle Spielerfahrungen gebracht hat.

 Denn wenn mir Framedrops und Slowdowns Sprünge verhageln, wenn mir der Input-Lag aufgrund instabiler Frametimes das Laufen erschwert und ich eher mit der Technik als mit der Herausforderung des Spiels kämpfe, ist bei mir, am PC von144hz mit G-Sync verwöhnt, Schluss. Und das ist äußerst ärgerlich – aber mit etwas Glück in naher Zukunft erst mal kein Thema mehr, denn dank Abwärtskompatibilität erhalte ich auf der PS5 selbst bei Spielen mit Framerate-Limit immerhin noch stabile 30 FPS.

 Und so sehr ihr jetzt auch abwinken mögt und sagt „Ach, aber Filme laufen im Kino doch auch nur mit 24 Bildern pro Sekunde“ – ja, das stimmt. Aber Spiele sind eben keine Filme. Ihr schaut nicht nur passiv auf eine Leinwand, ihr wollt möglichst zeitnah beeinflussen, was auf dem Bildschirm passiert. Mehr Frames pro Sekunde lassen das Bild aufgrund reduzierter, ungewollter Blur-Effekte klarer und aufgeräumter wirken. Auch etwas niedrigere Auflösungen zwischen 4k und 1440p erscheinen so erheblich schärfer und knackiger, da sie in Bewegung weniger stark verwischen. Da der Steuerungsinput zudem nicht mehr nur alle 33,3 Millisekunden, sondern alle 16,6 Millisekunden Einfluss auf das dargestellte Bild nehmen kann, fühlen sich Spielfiguren und Kamera responsiver und damit schlicht besser und richtiger an. Und ja, das gilt selbst bei einfachen Erzähl-Abenteuern wie What Remains of Edith Finch, die auf der Konsole oft notorisch schlecht optimiert waren. Von den Vorteilen im kompetitiven Wettbewerb und der früheren und deutlicheren Sichtbarkeit von Zielen oder Kurven durch eine höhere Bildaktualisierung fange ich gar nicht erst an. Für mich gilt: Jedes Spiel ist besser, wenn es flüssiger läuft. Egal wie gut es vorher schon war. Und ein Zurück ist für mich im Grunde nicht mehr möglich, wenn ich einmal die 60 FPS gesehen habe.

 Ähnlich verhält es sich auch mit Ladezeiten. Bei meinem Komplettierungsrun quer über Tsushima auf der PS4 habe ich mich dermaßen an die Magie gewöhnt, mit der Sucker Punch offensichtlich ihre Komprimierungs-Algorithmen gewoben haben, dass ich bei der anschließenden Rückkehr in die Welt von Horizon Zero Dawn ob der Ladepausen kurz vergewissern musste, ob die Spiele tatsächlich beide auf dem gleichen System laufen. Habe ich hier einmal vom süßen Nektar der Lebenszeitersparnis gekostet, will ich nie wieder die quälenden Minuten im Ladebildschirm von Red Dead Redemption 2 verbringen, bei dem eine Alternativbeschäftigung auf Smartphone oder Switch beinahe Pflicht ist, wenn man am Ende eines langen Arbeitstages nicht eingenickt sein will, bevor man in den Wilden Westen startet.

 Selbstverständlich wird es also für meine Spielerfahrung einen Unterschied machen, ob ich Cyberpunk 2077 auf einer PS4 (ohne Pro) oder einem High-End-Rechner spiele, obwohl auf dem Bildschirm im Grunde das gleiche Rollenspiel stattfindet. Selbstverständlich hat es für mich einen gravierenden Unterschied in der Spielbarkeit gemacht, das überall schwach optimierte Kingdom Come Deliverance flüssig in maximalen Einstellungen über meinen PC zu prügeln, anstatt auf die gruselige PS4-Variante mit massiven technischen Problemen zurückzugreifen - obwohl es ja am Ende das gleiche Spiel war.

 Kurz gesagt: Ich freue mich über die neuen Konsolen, denn anscheinend ist wirklich endlich Schluss mit knapp 30 FPS. Ich bin begeistert, das vielleicht endlich auch am PC für schnellen Speicher optimiert werden wird. Denn für mich hat auch die Technik viel mit meinem Spielerlebnis zu tun – und ob ich tolle Abenteuer und Geschichten vielleicht noch ein Stück mehr genießen kann.


Eike Cramer
Redakteur

 

Kommentare

Leon-x schrieb am
Triadfish hat geschrieben: ?08.01.2021 16:39
Wenn ich bei der gleichen Detaileinstellung DLSS deaktiviere, also in 1440p rendern lasse, wird das Spiel bei mir zur Diashow. Das ist so ein krasser Performance-Unterschied, den man sich lediglich durch ein paar Einbußen bei der Bildschärfe erkauft.
Toll, du vergleichst hier Raytracing Berechnung mit meiner Aussage dass ein Performance Mode auf Konsolen von 1440p auf 60fps erfolgt. Was natürlich ohne Raytracing dann der Fall ist.
Alles zusammen geht wie bei 120fps Mode eben nur mit Kompromissen.
Cyberpunk ist nicht wirklich gutes Beispiel für optimierte Engine.
Ich persönlich zock es lieber ohne RT dafür in DLSS Quality Mode von 1440p auf 2160p mit recht stabilen 60 Bilder. Denn für RT geht ich nicht unter Full HD. Habe ich weder bei Wolfenstein Youngblood noch Control gemacht. Ging immer von 1440p im DLSS Quality Mode sehr gut mit 60fps.
Selbst bei Watch Dogs Legion (mal über Uplay+ ausprobiert) lieber höhere Auflösung bei 60fps als Raytracing mit schwankender Performance genommen. Weil man sich auch satt sehen kann an den Effekten.
Wenn es einen Performance Mode bei den Konsolen gibt wird er meist ohne Raytracing auskommen. 4k/30 mit RT und 1440p per Upscaling und 60fps. Ab und an werden wir weiterhin 1080p/120fps Modi sehen je nach Game.
Glaube nicht daran dass MS oder Sony sich rein auf 4k/30 mit RT beschränken. Zumal die Raytracing-Leistung der neuen Konsolen jetzt auch nicht exorbitant hoch ist. Unreal Engine 5 Demo auch zeigt dass man es auch in Softaware gut simulieren kann ohne echte Raytracing-Berechnung. Schon die UE4 hat Softwareupscaler drin.
Konsolensoftware kann halt paar Prozent besser auf die Hardware optimiert werden als Multiplattspiele die auf unterschiedlicher PC Hardware laufen.
Gute Ergebnisse bekommt man auch ohne nativ 4k auf Konsolen hin mit guten Engine.
Zumal Unterschied bisweilen immer noch ist dass man am PC viel näher am Monitor sitzt als die meisten Leute im Wohnzimmer mit einer Konsole zum...
OchsvormBerg schrieb am
Da kann ich Dir nicht ganz zustimmen. Ich besitze eine RTX 2060 Super, also eine deutlich schwächere Karte als Deine 2080Ti. Nur durch DLSS 2.0 ist es überhaupt möglich, dass ich Cyberpunk in guter Qualität spielen kann. Auf meinem WQHD-Monitor nutze ich die DLSS-Einstellung "Performance" wodurch das Spiel nativ in 720p berechnet und per DLSS hochskaliert wird. Durch die geringe Renderauflösung läuft es bei mir in der Voreinstellung "Raytracing Ultra" spielbar. Ohne DLSS 2.0 würde ich hier kein Land sehen, da müsste ich locker auf Medium Details runter regeln und auch die Raytracing-Effekte deutlich reduzieren.
Und das Spiel sieht so bei mir wirklich gut aus, klar man bemerkt schon einen Verlust an Bildschärfe gegenüber nativ 1440p, aber das Ergebnis ist um Welten besser als einfach nur 720p hochskaliert oder mit FidelityFX.
Wenn ich bei der gleichen Detaileinstellung DLSS deaktiviere, also in 1440p rendern lasse, wird das Spiel bei mir zur Diashow. Das ist so ein krasser Performance-Unterschied, den man sich lediglich durch ein paar Einbußen bei der Bildschärfe erkauft.
Für mich sind am PC Nvidia Karten daher z.Zt. alternativlos. Raytracing und DLSS halte ich einfach für viel zu wichtig und Nvidia sind die einzigen, bei denen das bisher richtig funktioniert.
Leon-x schrieb am
Triadfish hat geschrieben: ?06.01.2021 17:56 Und da macht es eben schon einen großen Unterschied, ob man dedizierte Einheiten für DLSS und für Raytracing auf den Chips hat oder nicht. Bei AMD muss beides von den CUs übernommen werden, das ist ein klarer Nachteil, der nicht zu unterschätzen ist. Und die Tensorkerne sind für KI-Berechnungen entwickelt worden, also genau für das, was DLSS auch macht. Ein minimaler Lag spielt da wohl keine Rolle, so lange man nicht gerade kompetitiv spielt... Und bei sowas ist DLSS sowieso kein Thema.
Ich habe selber 2080Ti, ich weiß wie DLSS 2.0 arbeitet und auch aussieht. Nur wird die wirklich "Ki-Berechnung" da eben nicht auf den Tensor-Core ausgeführt sondern vorher bei Nvidia auf Super-Server ein 16k Master antrainiert. Mit diesen Daten werden dann die Tensor-Core gespeist die es gut beschleunigen können. Von allein berechnen die schon mal gar nichts. Es ist nur mal angedacht dass, sofern Nvidia genug Daten über mehrere Engines hat, es dann bei jedem TAA-basierten Game automatisch über den Treiber nutzen kann. Aber zu DLSS 3.0 hört man bisweilen auch nicht mehr viel und ob es überhaupt kommt.
Man ist also auch weiterhin erst mal auf die Daten vom Nvidia Server angewiesen und dass es ein Entwickler dort überhaupt einreicht. Dass jedes PC-Game DLSS kann ist man leider noch weit entfernt.
Im Grunde wäre DLSS 3.0 dann nichts anders als es eben jetzt mit DirectML erforscht wird. Genug Daten sammeln bis es eben automatisch über die Software zur Hochskalierung angewand wird. Sowas geht halt in gewissen Rahmen auch ohne spezielle Hardware-Kerne. Genau wie es jetzt schon Checkerboard ab der PS4 Pro gibt eben mit AMD Hardware.
Upscaling wird es definitiv in irgendeiner Form für PS5 und Series X weiterhin geben. Deswegen sehe ich keinen Grund warum man rein nativ 4k/30 anstreben sollte. Unreal Engine 5 Demo nutzt auch die Upscaling-Technig der Engine von 1440p und sieht ja trotzdem auch auf UHD Bildschirmen anständig aus. Sowas braucht...
OchsvormBerg schrieb am
Video hin und her, so lange es nicht fertig und veröffentlicht ist, sagt das reichlich wenig. Letzten Endes muss das Ganze einen angemessenen Performanceschub bringen bei angemessener Bildqualität, sonst hat die ganze Sache keinen Sinn. Und da macht es eben schon einen großen Unterschied, ob man dedizierte Einheiten für DLSS und für Raytracing auf den Chips hat oder nicht. Bei AMD muss beides von den CUs übernommen werden, das ist ein klarer Nachteil, der nicht zu unterschätzen ist. Und die Tensorkerne sind für KI-Berechnungen entwickelt worden, also genau für das, was DLSS auch macht. Ein minimaler Lag spielt da wohl keine Rolle, so lange man nicht gerade kompetitiv spielt... Und bei sowas ist DLSS sowieso kein Thema.
Leon-x schrieb am
Triadfish hat geschrieben: ?05.01.2021 14:41 Wollen wir mal sehen, was dabei herum kommt. Da die GPUs der neuen Konsolen im Gegensatz zu Nvidias RTX-Karten über keine dedizierten Tensor-Kerne verfügen, bezweifel ich, dass man vergleichbare Qualität bei vergleichbarer Performance wie bei DLSS 2 erreichen wird. Das Ki-Upscaling müsste also von den CUs der Grafikchips berechnet werden, was die gewonnene Performance wieder reduziert. Es hat schon seine Gründe, warum AMD bis heute keine richtige Alternative zu DLSS 2 zu bieten hat und ich bezweifel ehrlich gesagt auch, dass das auf deren Chips überhaupt machbar ist.

Dazu gab es schon lange Video von MS mit Demo im Vergleich zu DLSS dazu:

Die Tensor-Core sind gar nicht ursprünglich wirklich dafür vorgesehen gewesen. Zudem bringen sie höhere Lag mit rein. Der ist zwar nur minimal da aber dennoch geringfügig spürbar.
Die CUs machen ja bei Raytracing in Big Navi auch nichts anderes als zusätzlich RT zu berechnen. Wenn man jetzt 1440p Leistungsmodus mit 60fps bringt hat man ja Rechenkraft etwas frei für Upscaler.
Checkerboard kostet ja auch nicht viel Leistung. Da noch paar andere Daten anlernen und es halt verbessern kann schon was bringen.
schrieb am