Liesel Weppen hat geschrieben: ?28.09.2017 12:01
ChrisJumper hat geschrieben: ?26.09.2017 22:12
Was mich eigentlich immer noch verwundert. Ein Programm das auf Singlecoreleistung ausgelegt ist, kann doch theoretisch nur schlecht programmiert sein? Weil Zeit, bei entsprechendem Speicher und durch Parallelisierung, es doch eigentlich kompensierbar sein sollte.
Man kann nicht beliebig parallelisieren.
Mal angenommen du hast...
Vielen Dank für die umfassende und spannend zu lesende Erklärung Liesel.
Bei meinem Post gestern dachte ich noch das nach so vielen Jahren der Entwicklung die Engines quasi weit genug sein müssten um von alleine schon fast perfekt parallelisiert zu operieren.
Doch es stimmt bei bestimmten Berechnungen ist die Laufzeit einfach lang und nicht zerlegbar. Wenn das Ergebnis dann auch noch Zeitkritisch ist wird es eng. Dachte das der Vorteil von weniger als 1GH bei einem Kern einfach nicht so entscheidend sein kann das ein "Spiel ruckelt". Im Zweifelsfall muss man halt einfach doppelt so lange warten. Das sollte sich im Spieldesign halt auch irgendwie unterbringen lassen.
Doch stimmt wenn man das Spieldesigntechnisch angeht muss man genau verstehen wie sich das Verhält. Da ist dann der gesteigerte Aufwand auch viel höher. Hatte irgendwie gehofft das dies mittlerweile "normal ist". Die meisten Anwendungen laufen ja auch ordentlich. Egal ob auf dem Smartphone oder PC. Spiele sind da aber wohl eine ganze Ecke komplexer.
Dachte dabei auch an die Switch-Titel die ein wenig überraschten und so viel Power haben die ja auch nicht unter der Haube. Wenn man nicht eine lange Kette zu berechnen hat, sollte auch ein einziger Kern mit besserer Kühlung reichen, wenn der halt übertaktet im Außnahmezustand für einen kurzen Moment 2,5 GH statt 1,8 GH bringt.. dachte ich. Aber da unterschätze ich wahrscheinlich die Singelcore-Abschnitte im Code.