von Marcel Kleffmann,

NVIDIA: GeForce GTX 1060 angekündigt; Treiber 368.69 WHQL für DiRT Rally VR verfügbar

Nvidia (Unternehmen) von Nvidia
Nvidia (Unternehmen) von Nvidia - Bildquelle: Nvidia
NVIDIA hat nicht nur den Grafikkarten-Treiber "GeForce Game Ready 368.69 WHQL" veröffentlicht, der für DiRT Rally VR optimiert wurde, sondern auch die GeForce GTX 1060 offiziell angekündigt. Sie ergänzt die GTX 1080 und GTX 1070. So wie alle GPUs, die auf der Pascal-Architektur basieren, wurde auch die GTX 1060 (Preis ab 249 Dollar) mit Fokus auf Optimierung der Geschwindigkeit und Leistungseffizienz pro Watt entwickelt. Hergestellt im 16nm-FinFET-Verfahren liefert die GTX 1060 (laut NVIDIA) die Leistung einer GTX 980 bei einem Energieverbrauch von 120 Watt. Auch hohe Geschwindigkeiten bei VR-Titeln sowie DirectX-11/12-PC-Spielen werden versprochen. Custom-Boards der GTX 1060 sind ab dem 19. Juli von den NVIDIA-Grafikkartenpartnern erhältlich. Die GeForce GTX 1060 Founders Edition wird ab dem 19. Juli für 299 Dollar exklusiv im NVIDIA-Store verfügbar sein.

Der Hersteller schreibt weiter: "Die GTX 1060 besitzt 1.280 CUDA-Kerne und 6GB-GDDR5-Arbeitsspeicher, der eine Datentransferrate von bis zu 8GBps erreicht. Der Boost-Takt der GPU liegt bei 1,7 GHz und kann problemlos auf 2 GHz für noch mehr Leistung übertaktet werden. Bei nahezu allen Top-Spieletiteln ist die GTX 1060 in der Standard-Version im Durchschnitt 15 Prozent schneller und über 75 Prozent energieeffizienter als das direkt vergleichbare Produkt des Mitbewerbs. (...) Alle Spiele [BioShock Infinite, Crysis 3, Grand Theft Auto V, Rise of the Tomb Raider, Star Wars Battlefront, Witcher 3, Ashes of the Singularity, The Division und mehr] wurden bei einer Auflösung von 1080p getestet. Die GTX 1060 mit der Treiber-Version 368.64 und mit TDP bei 120 Watt getestet. Die AMD RX480 als Vergleichsprodukt wurde mit Treiber-Version 16.6.2 und denselben Spielen sowie bei gleicher Auflösung mit einem gemessen TDP von 185 Watt getestet [Stand: 05. Juli 2016])"

SMP-Technologie in führende Spiele-Engines integriert: "Die GTX 1060 unterstützt das NVIDIA VRWorks SDK (Software Developer Kit). Es erlaubt Entwicklern, das physikalische Verhalten der Umgebung mit dem, was Nutzer sehen, hören und fühlen, zu verknüpfen und sie so davon zu überzeugen, dass ihre virtuelle Erfahrung real sei.In VRWorks ist simultane Multi-Projektionsfähigkeit (SMP) enthalten, eine NVIDIA-Technologie, die es der GTX 1060 ermöglicht, ein einzelnes Bild für beide Augen gleichzeitig zu projizieren. Die Grafikleistung ist dabei bis zu dreimal höher im Vergleich zur Vorgängergeneration. Dadurch können Nutzer der GTX 1060 VR-Games mit einem höheren Detaillevel spielen und ein noch realistischeres Erlebnis erwarten, ohne dabei Leistungseinbußen in Kauf nehmen zu müssen. NVIDIAs simultane Multi-Projektion wird in die weltweit größten Game-Engines, wie die Unreal Engine und Unity, integriert. Über 30 Spiele sind bereits in Entwicklung, darunter Unreal Tournament, Poolnation VR, Everest VR, Obduction, Adr1ft und Raw Data."

NVIDIA Ansel in Mirror's Edge: Catalyst und Witcher 3: "Die GTX 1060 unterstützt auch NVIDIA Ansel - ein leistungsfähiges Werkzeug, das es Spielern wie nie zuvor erlaubt, die künstlerischen Aspekte des Gamings zu erkunden, festzuhalten und zu teilen. Mit Ansel können Spieler ihre Gameplay-Aufnahmen nach ihren Wünschen komponieren, die Kamera in jegliche Richtung ausrichten, an jedem Aussichtspunkt in der Spielwelt aufstellen und dann 360°-Stereo-Photosphären aufnehmen, die mit einer VR-Brille oder dem Google Cardboard betrachtet werden können. Gamer erleben Ansel bereits ab nächster Woche in Mirror's Edge: Catalyst, und später im Juli auch in Witcher 3: Wild Hunt. Daneben sind noch viel weitere Spiele mit Ansel-Unterstützung in Entwicklung, darunter Fortnite, Paragon und Unreal Tournament von Epic Games; Obduction aus dem Hause Cyan Worlds, The Witness von Thekla; Lawbreakers von Boss Key Productions; Ubisofts Tom Clancy’s The Division; und das sehnlichst erwartete No Man’s Sky von Hello Games."
Quelle: NVIDIA

Kommentare

johndoe1197293 schrieb am
Ich habe dann gegen meine Onboard-Karte getauscht... :P
Liesel Weppen schrieb am
sourcOr hat geschrieben:
Liesel Weppen hat geschrieben:
NewRaven hat geschrieben: Nö. Der Speicher wurde gezielt mittels speziellem Programm vollgeballert bis die Bandbreite sichtbar eingebrochen ist. Das hätte niemand sonst gemerkt.
Also was ich so gelesen hatte, ich hab die Graka ja nicht selbst und ich hab auch nicht diverse Spiele, konnte das also auch nicht selbst ausprobieren, hatten eineige Anwender aber tatsächlich Probleme festgestellt mit Titeln die mehr als die 3,5GB VRAM nutzten.
Mit synthetischen Tests lies es sich natürlich noch besser zeigen, bzw. Nachweisen.
Das ist auch meine Antwort an @NewRaven, afaik wurden wirklich Probleme von diversen Anwendern festgestellt, die die Grakas schon hatten. Ich kenne natürlich keine genauen Zahlen, aber afaik hat NVidia das Problem behoben, bevor die ersten Leute die Graka hatten.
Bei AMD liegt es kaum anders.
sourcOr schrieb am
Liesel Weppen hat geschrieben:
NewRaven hat geschrieben: Naja, die Hauptkritik - neben der schwachen Kommunikation seitens NVidia, natürlich - war ja die Befürchtung, die Spiele würden schlicht in dem Moment einbrechen, wenn die 3,5 GB voll sind. Das ist aber in der Praxis nie passiert...
Doch, genau das ist passiert, bevor sie über den Treiber nachgebessert haben. Genau das war ja das Problem.
Nö. Der Speicher wurde gezielt mittels speziellem Programm vollgeballert bis die Bandbreite sichtbar eingebrochen ist. Das hätte niemand sonst gemerkt.
https://www.youtube.com/watch?v=b2p_7CTbqv8
NewRaven schrieb am
Nein, hast du nicht - und auch sonst sind wir bei fast allem einer Meinung ;)
Außer... hier:
Liesel Weppen hat geschrieben:
NewRaven hat geschrieben: Naja, die Hauptkritik - neben der schwachen Kommunikation seitens NVidia, natürlich - war ja die Befürchtung, die Spiele würden schlicht in dem Moment einbrechen, wenn die 3,5 GB voll sind. Das ist aber in der Praxis nie passiert...
Doch, genau das ist passiert, bevor sie über den Treiber nachgebessert haben. Genau das war ja das Problem.
Die langsamer angebundenen 512 MB wurden bereits in ersten Testmustern festgestellt und da startete auch schon der Skandal - noch bevor die ersten Endkunden-Karten im Handel waren. Und auch da wurde schon mit synthetischen Benchmark-Tools gearbeitet um irgendwelche Leistungseinbrüche nachzuweisen, weshalb sich das alles so hochschaukelte, NVidia langsam mit der Wahrheit rausrückte und so weiter. Als dann aber die Kunden das Ding in der Hand hatten, hab ich selbst nicht einen einzigen Benchmark mit einem richtigen Spiel gesehen, der diesen befürchteten Einbruch bei der Bildrate in einer für diese Karte geeigneten Auflösung von maximal 1440p untermauert hätte. Vielleicht hab ich da wirklich was übersehen - allerdings war ich aufgrund meiner Kaufabsicht zu jenem Zeitpunkt ziemlich tief in der Materie drin. Und meiner Wahrnehmung nach hat NVidia das Problem tatsächlich "gelöst" (wobei man, genau wie jetzt bei AMD sicher auch kaschiert sagen könnte), bevor die Kunden überhaupt in die Situation kommen konnten, damit konfrontiert zu werden. Selbst wenn ich mich hier aber irre, war es zeitlich wirklich kurz danach.
Ansonsten stimme ich dir natürlich vollkommen zu. Solche Fehler dürfen und sollten nicht passieren. Und falls sie es doch mal tun, dann sollte man direkt mit offenen Karten spielen. Ich verstehe auch jeden Kunde, der vorher darüber nicht informiert war - eigentlich verstehe ich sogar jeden Kunde, der darüber informiert war - das er sich über solche Schnitzer ärgert. Nur kann man...
Liesel Weppen schrieb am
NewRaven hat geschrieben: Nun, nicht alles, was im VRAM landet, muss auch möglichst schnell abgerufen werden können. Gerade die DirectX-API ermöglicht da ja sogar völlig bewusst Priorisierungen (keine Ahnung wie das bei OpenGL oder anderen Schnittstellen vor Vulkan ist, darüber habe ich keine tieferen Kentnisse). Es sollte also für den Treiberhersteller durchaus möglich sein, Daten gezielt in die letzten Speicherbereiche zu verschieben, die schlicht diese Leistung bzw. Bandbreite nicht erfordern.
Genau das haben sie vermutlich gemacht. Habe ich doch auch gar nicht bestritten, oder?
NewRaven hat geschrieben: Problematisch sieht es halt dann aus, wenn die Karte mit relevanten, sprich hohe Bandbreite erfordernden, Daten schon an ihre Grenzen gebracht wird, wie es beispielsweise durch 4k Texturen der Fall wäre.
Und nicht anders ist es bei AMD.
Mal ganz lapidar ausgedrückt, die GPU hat 10 Geometrieeinheiten und 10 Shadereinheiten. Sie saugt nur dann zuviel Strom wenn 19 oder alle 20 Einheiten parallel genutzt werden. Nun ist es aber bei den meisten Spielen nicht so, dass alle 2x10 Einheiten gleich ausgelastet werden und schon gar nicht permanent.
Nur wenn der Fall eintritt, dass wirklich mal 19 Einheiten parallel benötigt werden würden, regelt der Treiber halt eine Einheit weg, so dass diese nicht mehr benutzt werden kann. Nur dann wird die Rechenleistung weniger, obwohl die Graka theoretisch die Rechenleistung sogar hätte.
NewRaven hat geschrieben: Naja, die Hauptkritik - neben der schwachen Kommunikation seitens NVidia, natürlich - war ja die Befürchtung, die Spiele würden schlicht in dem Moment einbrechen, wenn die 3,5 GB voll sind. Das ist aber in der Praxis nie passiert...
Doch, genau das ist passiert, bevor sie über den Treiber nachgebessert haben. Genau das war ja das Problem.
NewRaven hat geschrieben: Beide Hersteller haben da Mist gebaut, sowohl handwerklich als auch in der Kommunikation, beide haben aber auch (mittels Treiberanpassungen) dafür gesorgt,...
schrieb am