Test: Nvidia GeForce RTX (Hardware)

von Marcel Kleffmann



Nvidia GeForce RTX (Hardware) von Nvidia
GeForce RTX 3080
Hardware
Entwickler: Nvidia
Publisher: Nvidia
Release:
03.06.2021
Spielinfo Bilder Videos
Die nächste Grafikkarten-Generation von Nvidia steht in den Startlöchern. Versprochen wird mehr Power in nahezu allen Bereichen, gerade beim rechenintensiven Raytracing, aufwändigen Shader-Szenarien und komplexen KI-Anwendungen. Wir haben die GeForce RTX 3080 als ersten Vertreter der 3000er-Reihe in Hinblick auf die Performance bei Spielen ausführlich getestet.

Auf Turing folgt Ampere

Mit der GeForce 3080 erscheint am 17. September die erste Grafikkarte aus der 3000er-Reihe für 699 Euro. Die Grafikkarte auf Basis der neuen Ampere-Architektur, die der Turing-Architektur (2000er-Reihe) folgt, bietet 10 GB GDDR6X-Speicher und soll die Leistung einer Geforce RTX 2080 Ti und damit auch einer RTX 2080/Super deutlich übertreffen. Doch bevor wir zu dem eigentlichen Test der GeForce RTX 3080 in der Founder's Edition von Nvidia kommen, soll kurz und bündig auf die Verbesserungen an dem Grafikprozessor (GPU) eingegangen werden.

Ein Blick auf die GPU

Die GPU wurde im 8-Nanometer-Verfahren (Turing: 12 nm) produziert und umfasst 28 Mrd. Transistoren. Sie besteht aus drei Bereichen: der Streaming-Prozessor (CUDA) für die "normalen" und häufig anfallenden Rechenoperationen im Grafiksektor, die RT-Kerne für die Hardware-beschleunigte Berechnung von Raytracing in Echtzeit sowie die Tensor-Kerne, die vor allem bei KI-Anwendungen auf Basis von neuronalen Netzwerken zum Einsatz kommen sollen. Nvidias "Deep Learning Super Sampling" (DLSS) nutzt z.B. diese Tensor-Kerne: Das ist eine wirklich beeindruckende, KI-gestützte Methode zur Hochskalierung von Grafiken mit einem beträchtlichen Zugewinn bei der Bildwiederholrate ohne große optische Abstriche.

Nvidia will im Vergleich zu Turing die Anzahl der normalen Berechnungen um den Faktor Zwei gesteigert haben, gerade im Bereich der 32-Bit-Fließkommaoperationen, die vor allem beim Raytracing-Rendering und bei aufwändigen Shadern erforderlich sind (Turing: 11 Shader TFLOPS; Ampere: 30 Shader TFLOPS). Die zweite Generation der RT-Kerne sollen die mehrstufigen Raytracing-Operationen 1,7 Mal so schnell wie beim Vorgänger berechnen können (Turing: 34 RT TFLOPS; Ampere: 58 RT TFLOPS). Die dritte Generation des Tensor-Cores verspricht ebenfalls eine Leistungssteigerung um mehr als das Zweifache, da automatisch weniger wichtiger Elemente entfernt und "Sparse Networks" schneller berechnet werden können (Turing: 89 Tensor-TFLOPS; Ampere: 238 Shader Tensor-TFLOPS; bei Non-Sparse-Networks).
DLSS ist ein Upscaling-Verfahren, bei dem z.B. nativ in 1440p gerenderte Szenen mit KI-Unterstützung auf 4K hochskaliert werden können. Die Hochskalierung und die Kantenglättung (Anti-Aliasing) übernimmt ein speziell trainiertes KI-System. Zusätzlich kommen temporale Bild-Zusammensetzungsmethoden zum Einsatz, die für eine höhere Bildschärfe und eine höhere Schärfestabilität sorgen. Durch die niedrigere Render-Auflösung und das nachträgliche Upscaling steigt die Bildwiederholrate.

3080 als Nachfolger der 2080

Die RTX 3080 fungiert als Nachfolger der RTX 2080 bzw. der RTX 2080 Super und fällt mit 699 Euro auch in eine ähnliche Preisklasse. In unseren Testläufen und Benchmarks tritt die RTX 3080 aber gegen die RTX 2080 Ti an, das bisherige Grafikkarten-Flaggschiff für knapp 1.200 Euro. Der eigentliche Nachfolger der RTX 2080 Ti ist die RTX 3090 und diese Monster-Grafikkarte wird erst am 24. September 2020 zum Preis von 1.499 Euro erscheinen.

Da die RTX 2080 Ti schneller als die RTX 2080 war, dürfte der Leistungssprung im Vergleich zwischen RTX 3080 und RTX 2080/Super im direkten Vergleich größer ausfallen (Nvidia spricht vom Faktor 2), aber mangels Vielfalt bei der uns vorliegenden Testhardware konnten wir lediglich die RTX 2080 Ti gegen die RTX 3080 antreten lassen - zumal an dieser Stelle angemerkt sei, dass dies unser erster Grafikkarten-Test überhaupt ist, also seid bitte gnädig ;-) Außerdem liegt der Fokus in unserem Test auf der Performance und den spürbaren Verbesserungen in Spielen und weniger auf Aspekte wie Temperatur, Lautstärke, Stromverbrauch, Studio/Creator-Eigenschaften und Geschmacksrichtung.

Die RTX 3080 verfügt über drei Display-Port-Anschlüsse (1.4a) und einen HDMI-2.1-Ausgang, mit dem es möglich sein wird, 8K auf entsprechenden Bildschirmen wiederzugeben - bisher musste man kreative Kombinationen aus mehreren Ausgängen für 8K nutzen. Passend zur 8K-Thematik: Die Grafikkarte unterstützt Hardware-beschleunigte AV1-Dekodierung zur beschleunigten Wiedergabe von 8k/60fps-HDR-Videomaterial.

Kommentare

johndoe711686 schrieb am
Naja, man muss aber auch sagen, die Radeon bekommt man ähnlich oder noch schwerer. Ne RX 6800 kostet 900?+
Uwe sue schrieb am
sehr frech!
derzeit muss man 1300? hinlegen für eine karte die zu wenig V-ram für die nächsten 3 jahre haben wird.
nenene - Big NV - so werden wir erstmal sicher keine freunde! ich vermute sie wollen die leute ablinken, weil sie einige wohl gleich zu release abermals ne 3080TI mit 20GB holen werden.
bei diesem preis würde ich eine kaufwarnung aussprechen. ampere wird erst im sommer konkurrenzfähig sein. 10GB sind heute schon zu weing für 4K... und mal hand aufs herz. wer will denn 1300? für ne karte ausgeben die keine 4K packt? sogar mein vater (technik-depp) hat schon nen 65" 4K-TV. sogar für den würde die karte heute schon nicht mehr reichen...
theboywhosetsfire schrieb am
Habe die Karte seit gestern Mittag. Die Gute hat meine sehr treue ASUS GTX 970 in den wohlverdienten Ruhestand geschickt!
Und was soll ich sagen...Der Sprung für mich ist gigantisch! Ich habe richtig Spaß mit dem Teil. Fühlt sich son bissl an wie eine neue Konsole!
Und klar besser geht immer, aber für mich passt der Kosten/Nutzenfaktor zu 100%!
Mit AMD hatte ich in der jüngeren Vergangenheit mit GPUS echt schlechte Erfahrungen gesammelt wodurch ich immer wieder auf meine 970er zurückgreifen musste (Treiber, Defekter Speicher etc.)
Leon-x schrieb am
Ryan2k6 hat geschrieben: ?22.10.2020 22:17 Vielleicht ist AMD doch nicht so stark und die sind nicht nötig. Oder sie bekommen einfach nicht genug Chips zusammen.
Wobei viele Leute schon davon reden dass AMD sogar etwas stärker werden könnte. Lediglich bei der Raytracing-Rechenleistung ist man der 3000er angeblich unterlegen:
https://www.pcgameshardware.de/AMD-Rade ... g-1360547/
Vram wirkt sich ja weniger auf die Chipleistung aus.
Könnte spannend werden am 28.20.
johndoe711686 schrieb am
Vielleicht ist AMD doch nicht so stark und die sind nicht nötig. Oder sie bekommen einfach nicht genug Chips zusammen.
schrieb am