Unreal Engine 4: GDC 2018: Star Wars Raytracing-Techdemo; "Next-Gen-Darstellung" eines digitalen Menschen - 4Players.de

4Players.de Das Spielemagazin. Kritisch. Ehrlich. Aktuell. 4Players.de Das Spielemagazin. Kritisch. Ehrlich. Aktuell.
Sonstiges
Entwickler: Epic
Publisher: -
Release:
kein Termin
kein Termin
kein Termin
kein Termin
kein Termin
kein Termin
kein Termin
kein Termin

Wie findest Du das Spiel?

Spielinfo Bilder Videos

Schnäppchen-Angebote

Stellenmarkt Jobbörse Jobware

Nachrichten

Folge uns

       
von ,

Unreal Engine 4 - GDC 2018: Star Wars Raytracing-Techdemo; "Next-Gen-Darstellung" eines digitalen Menschen

Unreal Engine 4 (Sonstiges) von
Unreal Engine 4 (Sonstiges) von - Bildquelle: Epic
Aktualisierung vom 28. März 2018, 19:42 Uhr:

Mittlerweile hat sich laut DSOG herausgestellt, dass die in Echtzeit laufende Star Wars Raytracing-Techdemo (siehe Video unten) bei der Präsentation auf der GDC 2018 auf vier NVIDIA Tesla V100 GPUs lief. Aktuell kostet eine NVIDIA Tesla V100 Grafikkarte über 8.000 Euro (Peak single precision: 15.00 TeraFLOPS; Peak double precision: 7.50 TeraFLOPS; Deep Learning: 120.00 TeraFLOPS). Die Demo nutzte das DXR-Framework von Microsoft und die NVIDIA RTX Technologie für Volta GPUs. Die RTX-Technologie wird auch die Vulkan API unterstützen.

Aktualisierung vom 22. März 2018, 12:53 Uhr:


Bei der GDC 2018 zeigte Epic Games noch in einem Video, welche Spiele und Projekte auf der Unreal Engine basieren. Zu sehen sind u. a. A Way Out, Biomutant, DragonBall FighterZ, Project TL (NCSOFT), Concrete Genie, Sea of Thieves, Ace Combat 7, Soul Calibur 6, Ashen, Rune, Little Devil Inside, PUBG und PUBG Mobile etc. Die komplette Keynote "State of Unreal" kann bei YouTube angeschaut werden. Die Raytracing-Demo und weitere technische Demos findet ihr weiter unten.



Ursprüngliche Meldung vom 21. März 2018, 22:12 Uhr:

Bei der "State of Unreal Keynote" auf der GDC 2018 hat Epic Games einige Tech-Demos auf Basis der Unreal Engine 4 präsentiert. Zunächst zeigten sie Raytracing in Echtzeit mit einer kleinen Star-Wars-Demo. Die Demo nutzte das DXR-Framework von Microsoft und die NVIDIA RTX Technologie für Volta GPUs (wir berichteten). Das Ergebnis beschreiben die Entwickler als  "Beleuchtungs- und Rendering-Technik der Zukunft".

Raytracing wird in der Wikipedia folgendermaßen erklärt: "Raytracing (dt. Strahlenverfolgung) ist ein auf der Aussendung von Strahlen basierender Algorithmus zur Verdeckungsberechnung, also zur Ermittlung der Sichtbarkeit von dreidimensionalen Objekten von einem bestimmten Punkt im Raum aus. Prominenteste Verwendung findet Raytracing in der 3D-Computergrafik. Hier ist der grundlegende Raytracing-Algorithmus eine Möglichkeit zur Darstellung einer 3D-Szene. Erweiterungen, die den Weg von Lichtstrahlen durch die Szene simulieren, dienen, ebenso wie das Radiosity-Verfahren, der Berechnung der Lichtverteilung."

Im besagten Video (ILMxLAB) sind textured area lights (texturierte Flächenbeleuchtung), ray-traced area light shadows (Echtzeit-Schattenwurf durch Lichtquellen), ray-traced reflections (Reflexionen), ray-traced ambient occlusion (Umgebungsverdeckung), cinematic depth of field (Schärfentiefe) und NVIDIA GameWorks ray tracing denoising (Rauschunterdrückung) zu sehen.



Darüber hinaus hat Epic Games in weiteren Video (siehe unten) demonstriert, wie sich die Mimik einer Schauspielerin in Echtzeit auf eine virtuelle Figur übertragen lässt, wie die "Next-Gen-Darstellung" eines digital nachgebildeten Menschen mit Andy Serkis aussehen könnte und wie das "Replay System" bei Fortnite beispielhaft in Aktion aussieht. Das Replay-Feature soll allen Entwicklern mit der Unreal-Engine-Version 4.20 im Sommer zur Verfügung gestellt werden.


Quelle: Epic Games, DSOGaming

Kommentare

Doc Angelo schrieb am
Mittlerweile hat sich laut DSOG herausgestellt, dass die in Echtzeit laufende Star Wars Raytracing-Techdemo (siehe Video unten) bei der Präsentation auf der GDC 2018 auf vier NVIDIA Tesla V100 GPUs lief. Aktuell kostet eine NVIDIA Tesla V100 Grafikkarte über 8.000 Euro
Und Nvidia behauptet, das erste Spiele mit dieser Technik noch in diesem Jahr erscheinen. Ja klar, ich bin mir sicher, das sie in einer bestimmten technologisch gerade noch als "korrekt" zu bezeichnenden Form Recht damit haben werden. Aber trotzdem... ist schon etwas nervig, das sich die Business-Leute immer derart haarscharf an der Grenze zur Lüge bewegen müssen.
4P|Marcel schrieb am
MrLetiso hat geschrieben: ?
28.03.2018 22:53
Update vom 28. Januar? ;)
Na sowas ;-) Thx!
MrLetiso schrieb am
Update vom 28. Januar? ;)
Doc Angelo schrieb am
MrLetiso hat geschrieben: ?
26.03.2018 16:40
Ähnlich dem Zeug, was auf der ein oder anderen Automobilmesse zu sehen ist: ziemlich cool, aber für 3 Menschen auf der Welt.
Das ist ja irgendwie das Ding: Es gibt auf Automobil-Messen immer wieder Dinge zu sehen, die sind dermaßen praxis-untauglich, das sie niemals auf der Straße landen. Sieht es krass aus wenn man es ins Rampenlicht stellt? Ja. Braucht mans wirklich? Fuck no!
MrLetiso schrieb am
Kivlov hat geschrieben: ?
22.03.2018 17:32
Ärmere Leute werden wahrscheinlich nie in den Genuss kommen fotorealistische Gesichter zu sehen.
Doch, natürlich. Einfach mal aus dem Fenster schauen :Häschen:
Rixas hat geschrieben: ?
22.03.2018 08:10
Betonung liegt dabei auf Zukunft, das Ding lief auf ner 50000$ Maschine, laut Arsetechnica sogar auf ner 150k Maschine von Nvidia. Egal was stimmt so schön die ganzen Demos auch sind, wird noch eine weile dauern bis wir davon wirklich alles in Spielen sehen werden. Eher so Next-Next Gen Stoff.
Das ist alles richtig, aber auch irrelevant. Es ging ja hierbei nur darum zu zeigen, was alles möglich ist. Und das ist wirklich - wirklich ziemlich beeindruckend, wie ich finde.
Ähnlich dem Zeug, was auf der ein oder anderen Automobilmesse zu sehen ist: ziemlich cool, aber für 3 Menschen auf der Welt.
schrieb am

Facebook

Google+