von Jens Bischoff,

Titanfall 2: Keine native 4K-Auflösung, aber stabilere Bildrate auf PS4 Pro

Titanfall 2 (Shooter) von Electronic Arts
Titanfall 2 (Shooter) von Electronic Arts - Bildquelle: Electronic Arts
Titanfall 2 (ab 5,16€ bei kaufen) wird bereits bei seiner Veröffentlichung an diesem Freitag, den 28. Oktober 2016, von der zusätzlichen Hardware-Power der erst später erscheinenden PlayStation 4 Pro Gebrauch machen, um u. a. die auf allen Systemen automatisch skalierende Auflösung möglichst hoch zu halten. Für eine native 4k-Auflösung werde es allerdings nicht reichen, wie Executive Producer Drew McCoy gegenüber Stevivor einräumte. Er wäre sogar überrascht, wenn überhaupt ein AAA-Titel in absehbarer Zeit dieses Ziel auf Sonys Konsole erreichte, da die dafür benötigte Rechenleistung einfach immens sei. Stattdessen soll die anvisierte Bildrate von 60 Fps stabiler gehalten sowie hochauflösende Schatten und eventuell mehr Partikel geboten werden.

Letztes aktuelles Video: Vorbestell-Video

Quelle: Stevivor

Kommentare

Liesel Weppen schrieb am
ChrisJumper hat geschrieben: Wenn DF schon von Magic spricht als auch die Square Enix Entwickler, denke ich halt das es neben dem Hardware-Support der Grafikkarte für die Skaling-Funktion. Halt doch noch Funktionen gibt wo das Bild günstiger hoch gerechnet werden kann, eben weil es noch näher an der Gestaltungsebene ist. Stell dir vor du könntest dem Scaler noch Funktionen durchreichen und hättest als Entwickler die Möglichkeit Schwerpunkte zu setzen.
Das ist dann kein reines Skalieren mehr, aber sowas ist denkbar, bzw gibts sogar schon.
ChrisJumper hat geschrieben:Es gibt halt Stellen im Spiel die je nach Szene nicht so wichtig sind. Aktuell findet das zum Beispiel per Blur-Effekt statt.
Für Blur als Tiefenunschärfe braucht man natürlich die Tiefeninformation zum Bild. Motion Blur dagegen ist reines Postprocessing. Allerdings spart keines von beiden Rechenleistung, sondern braucht sogar mehr, weil es eben zusätzliche Effekte sind. Auch wenn Blur leistungstechnisch günstig ist.
Es gibt aber andere Tricks, Quantum Break berechnet afaik 4 720p Bilder und kombiniert diese dann zu einem 1080p Bild. Oder irgendwie so. (was so eigentlich keinen Sinn macht, denn 4x 720p ist mehr als 1x 1080p)
NVidia hat vor kurzem erst Multi-Res-Rendering vorgestellt. Dabei wird nur ein Bereich in der Bildmitte mit "1080" berechnet und die Auflösung im Randbereich nur reduziert berechnet. Anschließend wird der Randbereich hochskaliert und das Bild zusammengesetzt. Ich muss sagen, auf diversen Youtube Videos fällt mir der Effekt nur auf, wenn ich gezielt darauf achte. Es kam ja da auch sofort der Vorschlag, nicht stur die Bildmitte mit voller Auflösung zu berechnen, sondern das mit einem Eyetracker zu kombinieren und nur den Teil vollaufgelöst zu berechnen, wo man wirklich hinschaut.
CritsJumper schrieb am
Stimmt, danke für die umfassende gute Erklärung. Hat mir jetzt noch mal verdeutlicht wo es bei meiner Vorstellung gezwickt und gedrückt hat. Und mir wurde aber auch wieder klar, an dem ich mir zumindest vorstellen könnte, das die Konsole halt einen Mehrwert beim Skalieren hat. Zwar der Punkt:
Liesel Weppen hat geschrieben:Ob jetzt die Konsole das Bild selbst hochskaliert oder der TV spielt im Endeffekt keine große Rolle.
Wenn DF schon von Magic spricht als auch die Square Enix Entwickler, denke ich halt das es neben dem Hardware-Support der Grafikkarte für die Skaling-Funktion. Halt doch noch Funktionen gibt wo das Bild günstiger hoch gerechnet werden kann, eben weil es noch näher an der Gestaltungsebene ist. Stell dir vor du könntest dem Scaler noch Funktionen durchreichen und hättest als Entwickler die Möglichkeit Schwerpunkte zu setzen.
Es gibt halt Stellen im Spiel die je nach Szene nicht so wichtig sind. Aktuell findet das zum Beispiel per Blur-Effekt statt. Man kann halt diese 4K-Pixel, mit Maßgeschneiderten Spiele (eben für 4K und für diese Software die halt direkt darauf ausgerichtet wird das sie "hoch skalieren muss". Bestimmt effizienter Skalieren als es bisher der Fall war.
Es stimmt aber auch das dies vielleicht/wahrscheinlich bei der Xbox und der Playstation 3 zum Beispiel schon von ND gemacht wurde. Eben weil sie immer schon versucht haben mit allen Tricks Ressourcen und Rechenzeit zu sparen und anders zu verteilen.
Vielleicht haben wir ja bald sogar eine Konsole die den Abstand des Spielers zum Bildschirm erkennen kann. ;)
Aber mittlerweile habt ihr mich schon überzeugt das dort nicht so viel extra Zeug laufen kann, einfach weil diese Anpassungen schon immer von der Software gemacht werden mussten. Aber ich hoffe natürlich das die größere Kundschaft der Konsolen halt etwas mehr Geld locker machen, als auch der "spezifizierte Hardware Vorteil", das es auf der Konsole eher gemacht wird, als am Wald-Wiesen-PC.
Liesel Weppen schrieb am
ChrisJumper hat geschrieben: 1. Bin ich davon ausgegangen das ein Bildschirm eine kleinere Auflösung halt auch darstellen kann indem er einfach die Auflösung herunter schaltet. Vielleicht können das TFT-Monitore nicht weil die ja immer physische Bildpunkte haben.
Genau, das Panel kann das nicht, das hat eben nur phyische Bildpunkte. Die Bildschirme können idR niedrigere Auflösungen anzeigen, dann skaliert aber eine CPU/GPU im Bildschirm die Auflösung auf die des Panels hoch.
Bzw auch umgekehrt, wenn ich an meinen alten HD-Ready TV eine FHD-Quelle angeschlossen habe, wurde die auch runter skaliert. Wobei da sowieso fast immer skaliert wurde, denn auch wenn z.B. die PS3 720p geliefert hat, wurde das auf die 1366x768 Pixel skaliert.
Stell dir mal vor, du hast eine LED-Leiste mit 10 LEDs und jetzt gibt dir jemand eine Lichtfolge mit 6 LEDs, die du auf deinen 10 LEDs anzeigen sollst. Entweder du benutzt nur die ersten 6 und lässt die letzten 4 LEDs unbenutzt (das kann ein Panel nativ, dann gibts aber schwarze Ränder) oder du überlegst dir, wie du die 6 QuellLEDs auf deine 10 physischen LEDs "mappst". Das ist genau der Skaliervorgang, den ein TV immer machen muss, wenn die Auflösung nicht 1:1 passt.
ChrisJumper hat geschrieben:2. Unter Native, dachte ich auch hier nur an die Game/Grafikkarten Ausgabe.
Liesel, mit dem Begriff Native, habe ich jetzt sogar meinen Ursprungsgedanken verloren. Ich meine halt wenn man es bei der Erzeugung des Bildes schon berücksichtigt, das es für zwei verschiedene Auflösung entwickelt werden muss. Ist es doch auch Native.

Nein, es geht darum, in welcher Auflösung das Bild berechnet wird, nicht in welcher Auflösung es aus dem Bildschirmausgang der Konsole rauskommt. Wenn das Bild in 1440p berechnet wird und die Konsole das selbst auf 2180p hochskaliert, kriegt der TV zwar direkt UHD, das Bild wurde aber trotzdem skaliert.
Ob jetzt die Konsole das Bild selbst hochskaliert oder der TV spielt im Endeffekt keine große Rolle. Man könnte...
CritsJumper schrieb am
Liesel Weppen hat geschrieben:
ChrisJumper hat geschrieben: Der Begriff "native" ist nicht und niemals richtig hart in Beton definiert.
Ähm, doch, der Begriff nativ ist in diesem Kontext nicht nur in Beton definiert sondern in Titan gegossen.
Es ist immer die Bildschirmauflösung und wenn das gerenderte Bild nicht exakt diese Auflösung hat, dann ist es eben nicht nativ.
Interessant. Ich merke das ich verschieden Punkte überdenken muss.
1. Bin ich davon ausgegangen das ein Bildschirm eine kleinere Auflösung halt auch darstellen kann indem er einfach die Auflösung herunter schaltet. Vielleicht können das TFT-Monitore nicht weil die ja immer physische Bildpunkte haben. Aber ich denke immer noch an die HZ Monitore die dann kurz schwarz wurden...
2. Unter Native, dachte ich auch hier nur an die Game/Grafikkarten Ausgabe.
Liesel, mit dem Begriff Native, habe ich jetzt sogar meinen Ursprungsgedanken verloren. Ich meine halt wenn man es bei der Erzeugung des Bildes schon berücksichtigt, das es für zwei verschiedene Auflösung entwickelt werden muss. Ist es doch auch Native. Klar gibt es Informationsverluste, wenn man Texturen herunter oder hoch skaliert. Aber wenn der Speicher doch entsprechend groß ist und zu 100% mit Infos gefüllt wird, die Ausgabe dann in 4K Bild ist, dann ist es doch 4K. Ganz gleich ob das Hintergrundbild, übertrieben Formuliert nur aus roten Punkten besteht oder nicht.
Ah genau, bezüglich heißer gekocht als gegessen. Das hat mich jetzt wieder drauf gebracht. Ich meine zum Beispiel auch das die Auflösung irgendwann so groß ist, das der Mehrwert oder der bessere Mehrwert vernachlässigbar wird. Quasi Megapixel Kameras. 15 zu 18 zum Beispiel. Aber gut möglich das es mir nicht so auffällt weil ich seltener auf UHD-Ausgabegeräten Bilder ansehe. Sondern sehr oft auf Smartphones, Fernsehern, Tablets, PCs mit HD Screens, Laptops mit kleiner Auflösung... da wird überall herunter Skaliert und lustigerweise finde ich herunter Skalieren nicht so problematisch wie...
Temeter  schrieb am
Liesel Weppen hat geschrieben:
Temeter  hat geschrieben:Und das auch nur, solange es gut umgesetzt und mit den richtigen Maßen ist: 720p schaut auf einem 720p Bildschirm auch besser aus, als hochskaliert auf einem 1080p Bildschirm.
Nö, tut es nicht. Umgekehrt wird ein Schuh draus: 720p sieht auf einem 1080-Display auch nicht schlechter aus.
720p schaut auf einem 1080p Bildschirm schlechter aus, das ist, was ich geschrieben hatte. :wink:
Lässt sich ziemlich einfach erklären: Wenn du 720 darauf hochskalierst, muss jeder Pixel auf etwa 1.5-fache Größe aufgeblasen werden. Und da das nicht so einfach geht, werden Pixel in den Übergängen für mehrere 720p-Pixel stehen müssen, was für ein weniger scharfes, verwaschenes Bild sorgt.
Schalt deinen Monitor (angenommen er ist 1080p) mal auf 720p, dann siehst du, wovon ich spreche. Natürlich benutzt dein Monitor kein aufwendiges Upscaling, aber du siehst schon: In diesem Fall wäre besseres Upscaling auch nur Schadensbegrenzung.
schrieb am
Titanfall 2
ab 5,16€ bei