von Marcel Kleffmann,

Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video

Nvidia (Unternehmen) von Nvidia
Nvidia (Unternehmen) von Nvidia - Bildquelle: Nvidia
Luminous Productions, ein Teil der Square-Enix-Unternehmensgruppe, hat auf der japanischen CEDEC-Spiele-Entwicklerkonferenz eine Echtzeit-Raytracing-Demo mit dem Titel "Back Stage" präsentiert. Die Demo wurde in einer gemeinsamen Präsentation von Takeshi Aramaki (Leiter von Luminous Productions) und Masaya Takeshige (Nvidia-Entwickler-Technologieteam) vorgestellt.

Die Demo von Back Stage lief auf einer Nvidia GeForce RTX 2080 Ti und zeigt "Path Tracing" - eine Raytracing-Technik, die alle Lichteffekte wie Schatten, Reflexionen, Brechungen und mehr in einem einzigen Raytracing-Algorithmus vereint. Die Demo fußt auf der Luminous Engine, die Spiel-Engine von Final Fantasy 15.

"Diese Ankündigung veranschaulicht die anhaltende Dynamik, die Raytracing im Gaming-Ökosystem aufbaut. Mit Luminous Productions unterstützt ein weiteres großes Studio Echtzeit-Raytracing standardmäßig in ihrer Game Engine", schreibt Nvidia.

"Back Stage ist eine Demonstration unserer Arbeit, um die Frage zu beantworten: Wie kann man Raytracing in einem Spiel der nächsten Generation verwenden? GeForce-RTX-Grafikkarten haben eine Leistung, die unglaublich hoch ist, und mit der Nvidia-Technologie ist sogar Echtzeit-Path-Tracing Realität geworden. Zusammen mit der Luminous Engine und der RTX-Technologie haben wir einen weiteren Schritt in Richtung Realismus in Spielen gemacht", so Takeshi Aramaki, Studio Head of Luminous Productions. Weitere Details findet ihr hier.



Quelle: Nvidia

Kommentare

Liesel Weppen schrieb am
Braucht man ja (jetzt) auch nicht vollaufgelöst. Noch kann man kombinieren.
Zumal viele Berechnungen aktueller 3D-Spiele auch wenn die Grafik mit Rasterization berechnet wird, schon Raycasts sind (jeder Schuss in einem Shooter ist ein Raycast), die von entsprechender Hardwarebeschleunigung profitieren könnten. Man hält diese nur so gering wie möglich, weil schlicht und einfach die Rechenleistung fehlt.
Mit RTX von Nvidia kann schon wesentlich mehr machen, sogar soviel, das man das für die Grafik verwenden kann.
C64Delta schrieb am
Hier mal ein RTX-Beispiel ohne Entrauschfilter:
https://www.youtube.com/watch?v=sFhc951RhfI#t=541
Rauschen (Anzahl der Iterationen nimmt nach unten hin zu):
Bild
Wie man sieht ist heute mit modernster Heimcomputer-Technologie (2080Ti) selbst bei sehr einfachen Geometrien (Quake 2) kein zu Ende berechnetes Echtzeit Raytracing möglich, sondern eher eine Vorschau. Aber selbst das sieht natürlich schon sehr geil aus.
Liesel Weppen schrieb am
Herschfeldt hat geschrieben: ?04.09.2019 19:05 Dann verkauf ich meine RTX-Karte jetzt am besten flott wieder. So ist der Verlust eventuell noch geringer. Denn wenn noch mehr die Kommentare hier lesen geht es definitiv bergab mit der RTX-Euphorie & ich-bezahle-jeden-Preis-Mentalität.
Das Problem ist eher, das NVidia das mit Gewalt in den Markt drückt. Wenn man Hi-End-GPU-Leistung will, musst du aktuell gezwungener Maßen RTX mitkaufen, weil es im ganz oberen Bereich, also ab 2070 nichts ohne RTX gibt.
Das müssen sie aber wohl auch tun, weil wenn RTX als Zusatzkarte für 300? verkauft werden würde, würden die Dinger aktuell wohl wie Blei in den Regalen liegen. Dann muss NVidia die ganze Entwicklung noch weiter vorfinanzieren und hat keinerlei Garantien.
Das sie damit nicht unbedingt nur Wohlwollen erzeugen, haben sie erkannt und die 1600er nachgeschoben, aber das obere Segment bleibt geschlossen, da MUSST du RTX mitkaufen. Deswegen gibts auch keine 1680ti. Genau so eine wäre zum entsprechenden Preis der absolute Renner, aber das finanziert die Entwicklung halt nicht.
Und wie das so in einer Marktwirtschaft halt nunmal funktioniert, würde RTX über kurz oder lang wieder auf der Strecke bleiben.
Aber (das ist eine pure Vermutung von mir) in 5-10 Jahren könnte das Verhältnis kippen und dann will NVidia halt nicht mit Raytracing das noch in den Kinderschuhen steckt dastehen.
Dann hast du nämlich das Problem, das man bei VR (mal wieder) sieht: Dann wäre der Technologiewechsel nämlich erstmal ein Rückschritt, den wieder keiner gehen will. Bei VR wird immer gemeckert, das es mehr Leistung braucht und trotzdem deutlich schlechter aussieht. Die VR-Experience kompensiert das für viele offensichtlich nicht. Deswegen krebst VR halt auch irgendwie nur so rum. Der Zug ist aber abgefahren, VR kann diesen leistungstechnischen Nachteil aufholen, weil wenn mehr Leistung verfügbar ist, wird die sofort auch wieder in Bildschirm-Spiele gepumpt und VR hängt weiterhin hinterher.
Dadurch...
Usul schrieb am
Dr. Hardware hat geschrieben: ?04.09.2019 19:22Diese Demo könnte man wirklich problemlos mit normaler Grafiktechnologie realisieren.
Ah, das ist gut zu wissen. Schon wieder hunderte Euro gespart!
Doc Angelo schrieb am
In der Tat eine sehr komische Demo. Zum einen ist sie ziemlich statisch. Es finden keine Änderungen in der Beleuchtung statt, die Beleuchtung ist relativ diffus (das ist gewünscht an einem Schminktisch), und die ganze Sache hat verhältnismäßig wenig Bewegung relativ zu Lichtern. Diese Demo könnte man wirklich problemlos mit normaler Grafiktechnologie realisieren.
Die "Tricks" die man für diese Szene braucht sind in den meisten Engines standardmäßig vorhanden und müssen nur genutzt werden. Ist zwar auch ein kleiner Aufwand, aber genau so sieht das auch für RTX aus. Das Backen der Lichtverhältnisse zum Beispiel erfordert kaum Aufwand.
Ich weiß nicht... die suchen sich echt seltsame Demos aus. Manchmal ist es kaum sichtbar, manchmal ziemlich irrelevant, manchmal auch recht nett, aber irgendwie wurde noch nicht so richtig ein handfester Vorteil gezeigt. Naja, die Technik ist auch noch in den Kinderschuhen, von daher wundert es nicht, wenn es noch nicht so wirklich was ist. Und wie schon gesagt wurde, werden bei NVidia-Vergleichsvideos bewusst schlechte Grafiken für "RTX Off" benutzt. Da werden selbst Technologie abgeschaltet, die schon in den 90ern verfügbar waren. Das hinterlässt bei mir wirklich einen schlechten Geschmack.
Ich wäre definitiv mehr dafür, das man die Tricks automatisiert, die jetzt schon möglich sind. Das würde zu einem besseren Grafik führen, ebenfalls ohne großen Mehraufwand für die Entwickler, und der größte Vorteil: Man könnte seine aktuelle Hardware erstmal behalten, und dreht an der Software. So wie es bei Konsolen mal üblich war.
Momentan löst man Probleme mit schnellerer Hardware. Das ist, finde ich, ziemlich verschwenderisch.
schrieb am