Mass Effect: Andromeda: PS4-Version und Xbox-One-Fassung im Vergleich: Auflösung, Bildwiederholrate, Tearing etc. - 4Players.de

4Players.de Das Spielemagazin. Kritisch. Ehrlich. Aktuell. 4Players.de Das Spielemagazin. Kritisch. Ehrlich. Aktuell.
3D-Rollenspiel
Entwickler: BioWare Montreal
Publisher: Electronic Arts
Release:
23.03.2017
23.03.2017
23.03.2017
23.03.2017
Vorschau: Mass Effect: Andromeda
 
 
Vorschau: Mass Effect: Andromeda
 
 
 
Keine Wertung vorhanden
Test: Mass Effect: Andromeda
78
Jetzt kaufen ab 14,99€ bei

Leserwertung: 68% [1]

Wie findest Du das Spiel?

Spielinfo Bilder Videos

Mass Effect: Andromeda
Ab 36.99€
Jetzt kaufen

Schnäppchen-Angebote

Stellenmarkt Jobbörse Jobware

Nachrichten

Folge uns

       

Mass Effect: Andromeda - PS4-Version und Xbox-One-Fassung im Vergleich: Auflösung, Bildwiederholrate, Tearing etc.

Mass Effect: Andromeda (Rollenspiel) von Electronic Arts
Mass Effect: Andromeda (Rollenspiel) von Electronic Arts - Bildquelle: Electronic Arts
Digital Foundry hat die PS4-Version und die Xbox-One-Umsetzung von Mass Effect: Andromeda in einem Vergleich gegenübergestellt. Laut der Analyse könnte auf beiden Systemen eine dynamische Auflösung zum Einsatz kommen, um die angestrebte Bildwiederholrate bei 30 zu erreichen - endgültig bestätigen konnte Digital Foundry diesen Eindruck (dynamische Auflösung) jedoch nicht.

Ansonsten läuft das normale Spielgeschehen auf der PlayStation 4 in 1080p. Bei den Zwischensequenzen wird eine niedrigere Auflösung verwendet, und zwar 900p. Auf der Xbox One läuft das Sci-Fi-Action-Rollenspiel in 900p. Die Zwischensequenzen werden in 1344x756 gerendert. Vorgerenderte Zwischensequenzen bzw. Videos werden in 1080p auf beiden Plattformen abgespielt. Entdeckt wurden ebenfalls kleinere Artefakte (Bildfehler), die ein bisschen an "Checkerboard Rendering" erinnern sollen.

Die Bildwiederholrate liegt nicht dauerhaft bei 30fps. Kleinere Einbrüche (frame time, fps-Wert) wurden auf beiden Systemen bemerkt, oftmals an den gleichen Stellen im Spiel. Tearing - vor allem unter Last bzw. bei aufwändigen Szenen - soll auf der Xbox One stärker als auf der PlayStation 4 ins Auge fallen. Auf der PS4 würde das Zerreißen des Bildes seltener und eher im oberen Bildbereich auftreten. Die PC-Fassung und die PS4-Pro-Version wurden noch nicht getestet. Auf der PlayStation 4 soll 1800p mit Checkerboard-Rendering geboten werden.



Letztes aktuelles Video: Die ersten zehn Minuten


Quelle: Digital Foundry
Mass Effect: Andromeda
ab 14,99€ bei

Kommentare

Balla-Balla schrieb am
Sieht doch verdammt geil aus auf beiden Systemen. Die paar Probleme sind wohl zu vernachlässigen und mal wieder nur ein Thema für die üblichen Grafik und FPS Erbsenzähler.
Wenn ich mir überlege, was ich heute bekomme auf einer zwo, drei Hundert ? Konsole und wie das noch vor wenigen Jahren aussah, dann bin ich einfach nur begeistert. Manche Leute beklagen eben auch, dass der goldene Löffel in Mund oder Nase nicht aus Platin ist, dass sie ihn nicht vom Staat geschenkt bekommen und ihn auch noch selbst aus der Schublade holen müssen.
Temeter  schrieb am
MrPink hat geschrieben: ?
19.03.2017 06:35
Temeter  hat geschrieben: ?
19.03.2017 03:44
Ok, warum haben die so einen großen Einfluss? Sollten die bei Vsync deiner Theorie nicht nur einen frame hinzufügen? Warum fügt Vsynq 5 PQS hinzu? Das macht doch keinen Sinn.
Die Idee dahinter war ja, dass das böse Vsync bei Nichteinhalten der benötigten fps jenseits der Kappung, und darauf, die fps von 60fps auf 30fps reduziert, von 30fps auf 20fps und von 20fps auf 15fps.
Dann kam tripple buffering, was nun einen zusätzlichen frame vorspeicherte, umso einen etwaigen frame drop zu kompensieren und durch einen schnellen "halb frame" ersetzte. Das sieht dann bei einem Einbruch auf 45 fps etwa so aus: 16ms-33ms-16ms-16ms....
Je mehr Bilder die GPU vorhalten kann, desto besser und länger funktioniert diese Technik, wohingegen die Latenz umso höher ausfällt. So entstanden dann Konzepte wie multiple buffering und darüber hinaus.
Es gibt zwar Spiele wie Far Cry 3, welche einen selbst einstellen lassen wie viele frames vorgehalten werden sollen, aber diese sind rar und in der Regel entscheidet die Engine/Treiber was Sache ist.
Wenn jetzt jedoch auf einmal ein fps limiter wie RTSS daherkommt und die fps genau auf 60fps setzt, zwinkt RTSS quasi die GPU wieder in das traditionelle tripple buffering, da die GPU nicht mehr "vorrechnen" kann.
Deswegen sollte man, wie ich bereits schrieb,...
MrPink schrieb am
Temeter  hat geschrieben: ?
19.03.2017 03:44
Ok, warum haben die so einen großen Einfluss? Sollten die bei Vsync deiner Theorie nicht nur einen frame hinzufügen? Warum fügt Vsynq 5 PQS hinzu? Das macht doch keinen Sinn.
Die Idee dahinter war ja, dass das böse Vsync bei Nichteinhalten der benötigten fps jenseits der Kappung, und darauf, die fps von 60fps auf 30fps reduziert, von 30fps auf 20fps und von 20fps auf 15fps.
Dann kam tripple buffering, was nun einen zusätzlichen frame vorspeicherte, umso einen etwaigen frame drop zu kompensieren und durch einen schnellen "halb frame" ersetzte. Das sieht dann bei einem Einbruch auf 45 fps etwa so aus: 16ms-33ms-16ms-16ms....
Je mehr Bilder die GPU vorhalten kann, desto besser und länger funktioniert diese Technik, wohingegen die Latenz umso höher ausfällt. So entstanden dann Konzepte wie multiple buffering und darüber hinaus.
Es gibt zwar Spiele wie Far Cry 3, welche einen selbst einstellen lassen wie viele frames vorgehalten werden sollen, aber diese sind rar und in der Regel entscheidet die Engine/Treiber was Sache ist.
Wenn jetzt jedoch auf einmal ein fps limiter wie RTSS daherkommt und die fps genau auf 60fps setzt, zwinkt RTSS quasi die GPU wieder in das traditionelle tripple buffering, da die GPU nicht mehr "vorrechnen" kann.
Deswegen sollte man, wie ich bereits schrieb, Vsync + RTSS nur verwenden, falls man sich sicher ist, dass man das angestrebte fps Kapp auch halten kann. Bei reinem double buffering gilt diese Regel sowieso, da man sich sonst die fps effektiv halbiert.
Temeter hat...
Temeter  schrieb am
Ahso, hab mal gecheckt: PQS sind einfach vorgerenderte Bilder. Warum nicht 'prerendered frames', veraltete AMD Begriffe kennt ja keiner :^)
Ok, warum haben die so einen großen Einfluss? Sollten die bei Vsync deiner Theorie nicht nur einen frame hinzufügen? Warum fügt Vsynq 5 PQS hinzu? Das macht doch keinen Sinn.
Und wieso fügen dieselben Spiele dann bei Gsync plötzlich keine 5 PQS hinzu?
MrPink hat geschrieben: ?
19.03.2017 03:03
Wie gesagt, selbst bei responsiven Engines ist die von vernünftigem Vsync verursachte Latenz im Vergleich vernachlässigbar.
Speziell bei single-player Spielen wie Mass Effect Andromeda.
Noooooope. Du bist einfach nurn scrub :Vaterschlumpf:
Ich start TW Battlefleet Gothic, Taktikspiel, aktivier Vsync, und kotz wegen der massiven laenz. :Blauesauge:
MrPink schrieb am
Temeter  hat geschrieben: ?
19.03.2017 02:05
(edit: Nvm, das hier ist RTSS + Gsync? Das ist natürlich was anderes)
Der interresante Vergleich bezieht sich auf No Sync fps limit vs. Vsync fps limit. RTSS und Gsync sind erst mal wurscht.
Temeter hat geschrieben: ?
19.03.2017 02:05
Btw, mein grundsätzliches Argument steht noch:
Nur wenn du die fqs ignorierst
Temeter hat geschrieben: ?
19.03.2017 02:05
Ich hatte mich auf Zeugs wie das hier bezogen, gerade mal 5 Monate alt:
SpoilerShow
Bild
Man sieht gut das double buffer Vsync mit einer fqs=5 daherkommt und tripple buffer seiner Funktionsweise entsprechend noch einen frame von 16ms draufsetzt.
Ich würde meine Hand ins Feuer legen, dass bei Vsync mit fps limit die durchschnittliche Latenz bei ca. 66ms liegen würde.
Zudem ist schön zu sehen, dass die...
schrieb am

Facebook

Google+