NVIDIA: Capture-Funktion & G-Sync vorgestellt - 4Players.de

4Players.de Das Spielemagazin. Kritisch. Ehrlich. Aktuell. 4Players.de Das Spielemagazin. Kritisch. Ehrlich. Aktuell.
Unternehmen
Entwickler:
Publisher: Nvidia

Wie findest Du das Spiel?

Spielinfo Bilder Videos

Schnäppchen-Angebote

Stellenmarkt Jobbörse Jobware

Nachrichten

Folge uns

       

nVidia: Capture-Funktion & G-Sync vorgestellt

NVIDIA (Unternehmen) von Nvidia
NVIDIA (Unternehmen) von Nvidia - Bildquelle: Nvidia
Nachdem AMD vor Kurzem neue Grafikkarten und die Mantle-Grafikschnittstelle vorgestellt hatte, war jetzt wieder nVidia am Zug.

Video-Capturing dank ShadowPlay

Wer eine Geforce GTX (600er Serie oder besser) sein Eigen nennt, wird sich über eine Capture-Funktion freuen, die der Hersteller bald einführen wird. So wird sich das Spielgeschehen aufzeichnen lassen, ohne dass die CPU dabei großartig belastet wird. Das so genannte ShadowPlay macht sich nämlich die auf den Grafikkarten vorhandenen H.264-Encoder zu Nutze. In der höchsten Qualitätsstufe werde sich das Capturing maximal fünf bis zehn Prozent der Leistung abknipsen, heiß es da.

Dabei gibt es zweierlei Modi. Im Shadow-Mode wird das Bildschirmgeschehen automatisch in einer 1080p-Auflösung mit bis zu 60 Bildern pro Sekunde festgehalten. Dabei werden stets die letzten 20 Minuten aufgezeichnet. Im zweiten Modus lässt sich das Aufzeichnen manuell auslösen und beenden.

Da der Stream gleich automatisch in H.264 encodiert wird, beanspruche das Videomaterial zudem deutlich weniger Speicherplatz als viele andere Lösungen. Unter Windows 7 kann die Aufzeichnungsdatei maximal vier GB groß sein - unter Windows 8/8.1 ist man nur durch die Größe der Festplatte begrenzt.



ShadowPlay soll ab dem 28. Oktober in der Geforce Experience zur Verfügung stehen. Support für Twitch-Streams soll zu einem späteren Zeitpunkt folgen.

G-Sync: Tearing & Co. den Kampf angesagt

Der Grafikkartenhersteller führte außerdem einen G-Sync getauften Ansatz vor, den man in langer, langer Arbeit entwickelt hatte. Damit soll das V-Sync-Thema aus der Welt geschafft werden.

Das bisherige Problem: Synchronisiert man Grafikkarten-Output und Bildwiederholrate des Bildschirms, muss erstere oft warten, obwohl eigentlich mehr möglich wäre. Schaltet man den V-Sync hingegen ab, muss man mit visuellen Nebenwirkungen wie dem berüchtigten Tearing rechnen.

Mit G-Sync wird der Spieß umgedreht: Die Bildwiederholrate des Bildschirms wird angepasst an das, was die Grafikkarte leisten kann. Dafür hat nVidia eigens einen Chipsatz entwickelt, der in kommende Displays eingebaut werden kann.

Last but not least: Per GameStream, kann man von einem PC mit GTX-Karte Spiele auf nVidias Shield streamen. Schließt man einen Fernseher an, kann der Stream mit dem Android-Handheld als Mittelsmann auch auf diesem konsumiert werden. Für jenen "Konsolen-Modus" empfiehlt der Hersteller dann auch den Anschluss eines externen Controllers an Shield. Momentan wird all dies von "über 50" PC-Spielen unterstützt, darunter auch die kommenden Batman: Arkham Origins und Assassin's Creed 4.

Langfristig sollen sich so nicht nur Spiele vom heimischen PC, sondern von nVidias Grid-Cloud streamen lassen.

Kommentare

schefei schrieb am
EvilReaper hat geschrieben:Die Technologie ist zukunftsweisend. Damit werden z.B 24FPS bei Spielen genau so flüssig dargestellt werden, wie es bei Filmen der Fall ist. Hoffentlich wird das den "FPS- Wahn" einiger ein wenig eindämpfen.
Nein, auch mit dieser Technologie werden 24FPS (zumindest außerhalb von Cutscenes) immer noch ruckeln.
Es eliminiert aber einen ärgerlichen Nebeneffekt den man für Vsync in kauf nehmen muss, nämlich das sich die FPS nach der Bildwiederholrate des Monitors richten und ein vielfaches davon sein müssen.
Ich hatte das Problem bei Bioshock Infinite. In den meisten "ruhigen" Szenen hatte ich etwas über 60 FPS, aber bei einigen Gefechten ging die Framerate unter 60, was ohne Vsync ja nicht so schlimm wäre.
Wenn man aber mit Vsync unter 60 FPS kommt, werden die Frames sofort auf 30 "gecapt" was einen sehr störenden Effekt zur folge hat.
Ich hab es dann so gelöst das ich die Bildwiederholrate auf 50 gesenkt habe, damit hab ich zwar 10 FPS verschenkt aber stabile 50 sind besser als schwankende 60/30.
Mit Gsync kann der Monitor jetzt die Bildwiederholrate on the fly mit den FPS abgleichen, damit diese störenden Microruckler nicht mehr auftreten und man trotzdem nicht auf FPS verzichten muss.
Es gibt zwar noch eine Software/Treiber Lösung namens Tripple Buffering die theoretisch auf das selbe Ergebnis kommt, aber die benötigt soweit ich weiß etwas mehr Leistung und funktioniert auch nicht mit allen Spielen.
firestarter111 schrieb am
EvilReaper hat geschrieben:Die Technologie ist zukunftsweisend. Damit werden z.B 24FPS bei Spielen genau so flüssig dargestellt werden, wie es bei Filmen der Fall ist. Hoffentlich wird das den "FPS- Wahn" einiger ein wenig eindämpfen.
der satz ist schon witzip: 24fps sind 24fps. da kann man nichts anderst darstellen. man kann es aber anderst wahrnehmen. deshalb kommts einem beim film flüssig vor und wenn man dann selbst spielt plötzlich nicht mehr.
aber zukunftsweisend ist die technologie schon. nur für mich unbefriedigend gelöst. herstellerabhängig und benötigt einen speziellen monitor und ne spezielle grafikkarte.
würde mir natürlich nen offenen standart wünschen. eigtl. möchte ich nvidia da nicht unterstützen.
OpiDeluxe schrieb am
Öhhhmmmm. Vom PC zum Handheld streamen und von da auf den Fernseher. Also PC->Shield->TV? Warum klemm ich dann den Rechner nicht gleich an den TV?
EvilReaper schrieb am
Die Technologie ist zukunftsweisend. Damit werden z.B 24FPS bei Spielen genau so flüssig dargestellt werden, wie es bei Filmen der Fall ist. Hoffentlich wird das den "FPS- Wahn" einiger ein wenig eindämpfen.
firestarter111 schrieb am
hass... gerade erstein monitor gekauft... . wenn das wirklich so gut funktioniert wie beschrieben (die industrielegenden sagen ja, sogar der von dice, der eigtl. mit amd ne partnerschaft hat), werde ich wohl nicht darum herum kommen mir sowas zu holen. wenn das geld da ist.
interessant wäre es natürlich auch wenn das diy kit noch für andere monitormodelle rauskommt... .
schrieb am

Facebook

Google+