von Marcel Kleffmann,

Mass Effect: Andromeda - PS4-Version und Xbox-One-Fassung im Vergleich: Auflösung, Bildwiederholrate, Tearing etc.

Mass Effect: Andromeda (Rollenspiel) von Electronic Arts
Mass Effect: Andromeda (Rollenspiel) von Electronic Arts - Bildquelle: Electronic Arts
Digital Foundry hat die PS4-Version und die Xbox-One-Umsetzung von Mass Effect: Andromeda (ab 5,00€ bei kaufen) in einem Vergleich gegenübergestellt. Laut der Analyse könnte auf beiden Systemen eine dynamische Auflösung zum Einsatz kommen, um die angestrebte Bildwiederholrate bei 30 zu erreichen - endgültig bestätigen konnte Digital Foundry diesen Eindruck (dynamische Auflösung) jedoch nicht.

Ansonsten läuft das normale Spielgeschehen auf der PlayStation 4 in 1080p. Bei den Zwischensequenzen wird eine niedrigere Auflösung verwendet, und zwar 900p. Auf der Xbox One läuft das Sci-Fi-Action-Rollenspiel in 900p. Die Zwischensequenzen werden in 1344x756 gerendert. Vorgerenderte Zwischensequenzen bzw. Videos werden in 1080p auf beiden Plattformen abgespielt. Entdeckt wurden ebenfalls kleinere Artefakte (Bildfehler), die ein bisschen an "Checkerboard Rendering" erinnern sollen.

Die Bildwiederholrate liegt nicht dauerhaft bei 30fps. Kleinere Einbrüche (frame time, fps-Wert) wurden auf beiden Systemen bemerkt, oftmals an den gleichen Stellen im Spiel. Tearing - vor allem unter Last bzw. bei aufwändigen Szenen - soll auf der Xbox One stärker als auf der PlayStation 4 ins Auge fallen. Auf der PS4 würde das Zerreißen des Bildes seltener und eher im oberen Bildbereich auftreten. Die PC-Fassung und die PS4-Pro-Version wurden noch nicht getestet. Auf der PlayStation 4 soll 1800p mit Checkerboard-Rendering geboten werden.



Letztes aktuelles Video: Die ersten zehn Minuten



Quelle: Digital Foundry

Kommentare

Balla-Balla schrieb am
Sieht doch verdammt geil aus auf beiden Systemen. Die paar Probleme sind wohl zu vernachlässigen und mal wieder nur ein Thema für die üblichen Grafik und FPS Erbsenzähler.
Wenn ich mir überlege, was ich heute bekomme auf einer zwo, drei Hundert ? Konsole und wie das noch vor wenigen Jahren aussah, dann bin ich einfach nur begeistert. Manche Leute beklagen eben auch, dass der goldene Löffel in Mund oder Nase nicht aus Platin ist, dass sie ihn nicht vom Staat geschenkt bekommen und ihn auch noch selbst aus der Schublade holen müssen.
Temeter  schrieb am
MrPink hat geschrieben: ?19.03.2017 06:35
Temeter  hat geschrieben: ?19.03.2017 03:44 Ok, warum haben die so einen großen Einfluss? Sollten die bei Vsync deiner Theorie nicht nur einen frame hinzufügen? Warum fügt Vsynq 5 PQS hinzu? Das macht doch keinen Sinn.
Die Idee dahinter war ja, dass das böse Vsync bei Nichteinhalten der benötigten fps jenseits der Kappung, und darauf, die fps von 60fps auf 30fps reduziert, von 30fps auf 20fps und von 20fps auf 15fps.
Dann kam tripple buffering, was nun einen zusätzlichen frame vorspeicherte, umso einen etwaigen frame drop zu kompensieren und durch einen schnellen "halb frame" ersetzte. Das sieht dann bei einem Einbruch auf 45 fps etwa so aus: 16ms-33ms-16ms-16ms....
Je mehr Bilder die GPU vorhalten kann, desto besser und länger funktioniert diese Technik, wohingegen die Latenz umso höher ausfällt. So entstanden dann Konzepte wie multiple buffering und darüber hinaus.
Es gibt zwar Spiele wie Far Cry 3, welche einen selbst einstellen lassen wie viele frames vorgehalten werden sollen, aber diese sind rar und in der Regel entscheidet die Engine/Treiber was Sache ist.
Wenn jetzt jedoch auf einmal ein fps limiter wie RTSS daherkommt und die fps genau auf 60fps setzt, zwinkt RTSS quasi die GPU wieder in das traditionelle tripple buffering, da die GPU nicht mehr "vorrechnen" kann.
Deswegen sollte man, wie ich bereits schrieb, Vsync + RTSS nur verwenden, falls man sich sicher ist, dass man das angestrebte fps Kapp auch halten kann. Bei reinem double buffering gilt diese Regel sowieso, da man sich sonst die fps effektiv halbiert.
Dank dir für die ausführliche Erklärung! Ist das erste mal, das mir jemand tatsächlich mal erklären kann, warum Vsync so viel Lag verursacht.
Eins verstehe ich nur nicht: Du sagst, dass die GPU bei 60fps lock nicht vorrechnen kann. Warum das, Ich dachte, bei prerendered Frames geht es eher darum, Bilder zurückzuhalten?
edit: Oder meinst du, dass die GPU praktisch 'überflüssige Frames' in den Buffer schiebt?...
HerrRosa schrieb am
Temeter  hat geschrieben: ?19.03.2017 03:44 Ok, warum haben die so einen großen Einfluss? Sollten die bei Vsync deiner Theorie nicht nur einen frame hinzufügen? Warum fügt Vsynq 5 PQS hinzu? Das macht doch keinen Sinn.
Die Idee dahinter war ja, dass das böse Vsync bei Nichteinhalten der benötigten fps jenseits der Kappung, und darauf, die fps von 60fps auf 30fps reduziert, von 30fps auf 20fps und von 20fps auf 15fps.
Dann kam tripple buffering, was nun einen zusätzlichen frame vorspeicherte, umso einen etwaigen frame drop zu kompensieren und durch einen schnellen "halb frame" ersetzte. Das sieht dann bei einem Einbruch auf 45 fps etwa so aus: 16ms-33ms-16ms-16ms....
Je mehr Bilder die GPU vorhalten kann, desto besser und länger funktioniert diese Technik, wohingegen die Latenz umso höher ausfällt. So entstanden dann Konzepte wie multiple buffering und darüber hinaus.
Es gibt zwar Spiele wie Far Cry 3, welche einen selbst einstellen lassen wie viele frames vorgehalten werden sollen, aber diese sind rar und in der Regel entscheidet die Engine/Treiber was Sache ist.
Wenn jetzt jedoch auf einmal ein fps limiter wie RTSS daherkommt und die fps genau auf 60fps setzt, zwinkt RTSS quasi die GPU wieder in das traditionelle tripple buffering, da die GPU nicht mehr "vorrechnen" kann.
Deswegen sollte man, wie ich bereits schrieb, Vsync + RTSS nur verwenden, falls man sich sicher ist, dass man das angestrebte fps Kapp auch halten kann. Bei reinem double buffering gilt diese Regel sowieso, da man sich sonst die fps effektiv halbiert.
Temeter hat geschrieben: ?19.03.2017 03:44 Und wieso fügen dieselben Spiele dann bei Gsync plötzlich keine 5 PQS hinzu?
Weil es nicht mehr nötig ist. Bei einem etwaigen fps Einbruch muss nicht mehr die GPU einstecken, sondern der Monitor.
Bei einem frame drop von 60 fps auf 45fps sehe das dann so aus: 16ms-22ms-16ms-16ms...
Dadurch, dass die GPU nicht mehr vorhalten muss, ergibt sich, dass die Latenz von Freesync identisch ist mit der von no Sync bei...
Temeter  schrieb am
Ahso, hab mal gecheckt: PQS sind einfach vorgerenderte Bilder. Warum nicht 'prerendered frames', veraltete AMD Begriffe kennt ja keiner :^)
Ok, warum haben die so einen großen Einfluss? Sollten die bei Vsync deiner Theorie nicht nur einen frame hinzufügen? Warum fügt Vsynq 5 PQS hinzu? Das macht doch keinen Sinn.
Und wieso fügen dieselben Spiele dann bei Gsync plötzlich keine 5 PQS hinzu?
MrPink hat geschrieben: ?19.03.2017 03:03Wie gesagt, selbst bei responsiven Engines ist die von vernünftigem Vsync verursachte Latenz im Vergleich vernachlässigbar.
Speziell bei single-player Spielen wie Mass Effect Andromeda.
Noooooope. Du bist einfach nurn scrub :Vaterschlumpf:
Ich start TW Battlefleet Gothic, Taktikspiel, aktivier Vsync, und kotz wegen der massiven laenz. :Blauesauge:
HerrRosa schrieb am
Temeter  hat geschrieben: ?19.03.2017 02:05 (edit: Nvm, das hier ist RTSS + Gsync? Das ist natürlich was anderes)
Der interresante Vergleich bezieht sich auf No Sync fps limit vs. Vsync fps limit. RTSS und Gsync sind erst mal wurscht.
Temeter hat geschrieben: ?19.03.2017 02:05 Btw, mein grundsätzliches Argument steht noch:
Nur wenn du die fqs ignorierst
Temeter hat geschrieben: ?19.03.2017 02:05 Ich hatte mich auf Zeugs wie das hier bezogen, gerade mal 5 Monate alt:
Show
Bild
Man sieht gut das double buffer Vsync mit einer fqs=5 daherkommt und tripple buffer seiner Funktionsweise entsprechend noch einen frame von 16ms draufsetzt.
Ich würde meine Hand ins Feuer legen, dass bei Vsync mit fps limit die durchschnittliche Latenz bei ca. 66ms liegen würde.
Zudem ist schön zu sehen, dass die engineeigenen Latenzen nur zum Teil fps abhängig sind.
Hinzu kommt noch Datenübertragung, Monitorlatenz, Pheripherieabtastungsrate etc.
Wie gesagt, selbst bei responsiven Engines ist die von vernünftigem Vsync verursachte Latenz im Vergleich vernachlässigbar.
Speziell bei single-player Spielen wie Mass Effect Andromeda.
schrieb am
Mass Effect: Andromeda
ab 5,00€ bei