von Marcel Kleffmann,

Sony - Gerücht: Es gibt Überlegungen, die Leistung der PlayStation 4 Neo in Hinblick auf Project Scorpio zu erhöhen

Sony (Unternehmen) von Sony
Sony (Unternehmen) von Sony - Bildquelle: Sony
Bei Sony macht man sich angeblich darüber Gedanken, die Leistung der PlayStation 4 Neo (im Vergleich zum ursprünglich geplanten Konzept) zu erhöhen, um mit Project Scorpio von Microsoft besser konkurrieren zu können. Diese unbestätigte Information stammt von Patrick Klepek (Vice Gaming; vorher bei Kotaku), der sich in einem Gespräch mit Austin Walker (GiantBomb) darauf berief, interne Gespräche bei Sony über dieses Thema mitbekommen zu haben. Demnach würden sich einige Verantwortliche bei Sony darüber Sorgen machen, dass die PS4 Neo veraltet wirken würde, wenn die Xbox One Scorpio (im nächsten Jahr) erscheinen wird. Allerdings sei unklar, wie viel Leistung sie noch "rauskitzeln" könnten. In trockenen Tüchern sei aber nichts. Bisher wird über eine mögliche PS4-Neo-Leistung von 4,2 TFLOPS spekuliert, während "Project Scorio" bei 6 TFLOPS liegen soll.

Von Klepek stammt u.a. das Gerücht, dass die Konsole am 7. September 2016 in New York vorgestellt werden soll. Die Entwicklerversionen sollen im gleichen Zeitraum in Umlauf gebracht werden. Sony hat die Gerüchte und Spekulationen nicht kommentiert.
Quelle: NeoGAF, periscope

Kommentare

johndoe1197293 schrieb am
eigentlichegal hat geschrieben:
CryTharsis hat geschrieben:Aktuell zählen die 1070/980 Ti/Titan X, die 1080 und natürlich die neue Titan dazu. Wir sprachen hier aber in bezug auf Ende des nächsten Jahres. Und da wird sich das ganze etwas verschieben.
Wieso sollen es gerade diese 4 Karten sein und zwra genau diese 4 Karten und keine mehr? Zumal dir gängige PC-Magazine widersprechen, wenn man nach Einstiegen in den High-End Bereich schaut.

Welche Karten gehören dMn denn noch dazu (außer natürlich den pendants von AMD, was in dem Fall wohl nur die Fury ist)? Die Leistung der 980/1060 fällt wie die RX 480 schon ins Mittelfeld.
Was gibt es also noch?
eigentlichegal hat geschrieben:Natürlich hast du Recht, wenn du sagst, dass sich die Verhältnisse in einem Jahr verschoben haben werden. Doch ich wage zu prognostizieren, dass die GTX 980 Ti auch nächstes Jahr noch zum High-End Bereich gehören wird und nicht, wie von dir behauptet, zur gehobenen Mittelklasse.
Dann können wir uns ja nochmal Ende nächsten Jahres darüber unterhalten. :wink:
yopparai schrieb am
Vor allem lässt sich das ohne ein konkretes Spiel nicht vorausahnen. Achja, Digital Foundry... Ich mag ihre Analysen ja, aber manchmal spinnen sie auch in der Gegend rum...
@eigentlichegal: Nur dass wir uns nicht missverstehen, dir habe ich kein Halbwissen unterstellt oder unterstellen wollen. Mein Post sollte eine Karikatur der Diskussionsmethoden sein, die du kritisierst. Ich steh also voll auf deiner Seite ^^
Leon-x schrieb am
Wer hält sich denn hier für den absoluten Experten?
Trotzdem kann man anhand einiger Dinge recht gut abschätzen was am Ende bei raus kommt.
In der Neo steckt kein spezieller Chip. Der baut sicherlich auf vorgandene Architektur wie eben Polaris auf. Da es die Destopversion schon gibt und deren Leistung in Benchmarks bekannt ist kann man mit Infos über TF, Taktrate, Shaderanzahl und Speicheranbindung schon was anfangen.
Je mehr da bekannt wird desto kleiner wird der Kreis um die tatsächliche Leistung.
Ab man dann am Schluss am realen Produkt 5-10% Prozent daneben liegt macht den Kohl auch nicht fett.
Solange Keiner sagt er kann 100% die Leistung jetzt schon sagen ist doch bei einer netten Disskusion alles in Ordnung.
Selbst Digital Foundry hat wieder späkuliert wie viel man Neo nich aufboren kann ohne Gehäuse und Kostenrahmen zu sprengen. Ihre Vermutung lag eher unter den erhofften 5,5TF(AMD TF). Eher 5.0 sind noch realistisch.
Was das jetzt genau an Performance bedeutet und wie viel FPS dabei rum kommen lässt sich ohne zusätzliche Angaben nicht in ein Bild setzen.
eigentlichegal schrieb am
camü hat geschrieben:Mehr Kerne können mehr berechnungen parallel ausführen, aber irgendwo müssen auch die Ergebnisse "zusammengeführt" / "ausgewertet" werden.
Das ist nur ein Teil der Wahrheit. Das weitere Problem liegt tatsächlich in den Leitern und dem Perfomanceverlust, wenn die Wege zu lang werden. Deswegen werden die allermeisten Prozessoren auch quadratisch angeordnet, damit die Wege zwischen den einzelnen Kernen möglich kurz und homogen bleibt. Hinzukommt, dass je mehr Kerne du zusammenschaltest, desto schwächer werden die einzelnen Kerne. Auch deswegen ergibt es keinen Sinn die Kernanzahl in beliebige Höhen zu schrauben (im Allgemeinen, im Speziellen mag das schonmal anders aussehen).
Server sind natürlich nochmal eine ganz andere Geschichte, weil da nicht einzelne Kerne, sondern ganze Prozessoren zusammengeschaltet werden. Das bringt aber, wie du bereits veranschaulicht hast, auch nur was, wenn du parallel rechnen kannst.
Ich wollte auch nur deutlich machen, dass ich den ganzen "Experten" hier im Forum nicht so viel zutraue, als dass ich deren Buzzword-Bingo in Ehrfurcht erstarrt glaube.
@yopparai: Ich bestreite nicht, dass ich Halbwissen habe. :) Ich habe mich aber redlich bemüht Verständnis zu erlangen und einfach bemerkt, dass es bei weitem nicht so simpel ist, wie viele hier tun. Zahlen scheinen in der IT bestenfalls sehr oberflächliche Maßstäbe widerzuspiegeln. Je tiefer man allerdings geht, desto schwieriger wird es für Laien wie mich da durchzusteigen. Ich habe halt auch keine Lust mich in Informatikbücher einzulesen. :P Aber wenn es auf einmal wichtig wird, wieviele Draw-Calls wo und wie verarbeitet werden um die Effizienz und Leistungsfähigkeit einer Hardware-Architektur zu begreifen, dann steig ich aus und sage einfach: Ich bin Laie! Soll mir das doch jemand Fachkundiges erklären. :D
yopparai schrieb am
camü hat geschrieben:
yopparai hat geschrieben:
eigentlichegal hat geschrieben:Wer kann detailliert erklären, warum es keinen 16 oder 32 Kern-Prozessor gibt und auch nie geben wird?
Also das ist natürlich völlig falsch, denn wenn man mal über den Tellerrand seiner öden x86-PC-Blase hinausschaut gibt es da durchaus seit einigen Jahren 16 Kerner am Markt, zum Beispiel Suns/Oracles Sparc T3:
https://en.m.wikipedia.org/wiki/SPARC_T3
Und IBMs POWER9 war afaik auch in einer 24 Kern-Variante angekündigt... [/klugscheiß]
Ansonsten: ne, hast Recht ^^
Ach, man kann auch innerhalb der x86er Welt bleiben und muss sich nur die Server-Cpus anschauen...
http://www.intel.de/content/www/de/de/p ... etail.html
72 Kern mit 288Threads... bringt dir Privat überhaupt nichts, aber naja... :wink:
@eigentlichegal: mehr Kerne helfen dir nur dann, wenn dein Programm im Ablauf sinnvoll genug aufgeteilt werden kann. Mehr Kerne können mehr berechnungen parallel ausführen, aber irgendwo müssen auch die Ergebnisse "zusammengeführt" / "ausgewertet" werden.
Irgendwann, bringt dir das nichts mehr, weil du dein Programm nur bis zu einem gewissen Grad aufteilen kannst.
Mal ein (konstruiertes und nicht 100% korrektes) Beispiel, du hast ein Programm was 3 Additionen macht
A=1+2
B=4+5
und
C=A+B
Während die Berechnung A und B zeitgleich parallel Ablaufen können, muss die "Funktion" für C auf die Ergebnisse von A und B warten. Du kannst das nicht weiter aufteilen.
Viele Kerne werden in dem Moment interessant, wo sehr viele Teile Parallel ablaufen können z.b. komplexe Simulationen für z.b. Wettervorhersagen oder wenn viele Programme Parallel laufen sollen wie z.b. auf Servern.
Glaub mir, das erklärst du gerade dem falschen. Ich verdien meine Brötchen unter anderem mit sowas ;)
Der tiefere Sinn meines Posts war eigentlich, dem guten eigentlichegal etwas gesundes Halbwissen um die Ohren zu hauen um seinen eigenen Post indirekt zu bestätigen.
schrieb am