NVIDIA: GPU-PhysX startklar - 4Players.de

4Players.de Das Spielemagazin. Kritisch. Ehrlich. Aktuell. 4Players.de Das Spielemagazin. Kritisch. Ehrlich. Aktuell.
Unternehmen
Entwickler:
Publisher: Nvidia

Wie findest Du das Spiel?

Spielinfo Bilder Videos

Schnäppchen-Angebote

Stellenmarkt Jobbörse Jobware

Nachrichten

Folge uns

       
von ,

nVidia: GPU-PhysX startklar

NVIDIA (Unternehmen) von Nvidia
NVIDIA (Unternehmen) von Nvidia - Bildquelle: Nvidia
Mit der PhysX-Karte nebst dazugehöriger Engine wollte Ageia den Spielemarkt prägen, konnte sich aber letztendlich nicht durchsetzen, erschien das Produkt sowohl Spielern als auch Herstellern zu nischenhaft, um es fundamental zu unterstützen. Im Februar schließlich wurde die Firma von nVidia geschluckt, sahen die Grafikchip-Spezialisten doch ein anderen Anwendungsfeld für PhysX: Schon kurz nach der Übernahme ließ der Hersteller verlauten, dass die Physikberechnungen zukünftig auch über die Grafikkarten laufen sollen.

Laut TechReport soll es nun nächste Woche soweit sein; mit der nächsten Version der Forceware-Treiber sollen neuere Serien der Geforce-Karten - Geforce 8, 9 und GTX-200 - fit gemacht werden für die wunderbare Welt der Schwerkraft. Und natürlich andere Spielereien. Außerdem wird es ein separates Software-Paket geben, das neben ein paar Tech-Demos auch die speziellen PhysX-Maps für Unreal Tournament III sowie den Shooter Warmonger umfasst.

TechReports Testläufe mit einer Vorabversion der Treiber zeigen, dass die GPU-beschleunigte Variante von PhysX deutlich fixer läuft als die software-basierte, bei der sich der Hauptprozessor abmühen darf. Wer eine bestmögliche Framerate möchte, dürfte die Komponente aber wohl, wenn möglich, ganz abschalten, was im Falle von UT3 mit 66 (statt 40) Frames pro Sekunde belohnt wurde. Aufgrund der großen Hardwarebasis der nVdia-Karten, dürfte so mancher Hersteller aber eher geneigt sein, entprechende Möglichkeiten auszunutzen, als das noch bei Ageias dediziertem Physikchip der Fall war.

Kommentare

derfreak schrieb am
Gbit doch Benches auf Computerbase in denen ersichtlich wird, dass der Performancevverlust minimal ist (5% oder so je nach Spiel)
BetaSword schrieb am
Also da kann man sich doch freuen.
Mein bruder bekommt demnächst von seiner Liebsten auch eine Ultra geschenkt, dann kann er die PhysX-Erweiterungen recht schamlos nutzen.
Ob sich das allerdings mit meiner 8600GT(ZOTAC's 512MB-Version) verträgt, ohne zu grosse Probleme zu bereiten muss ich dann erstmal noch testen.
ssmurf schrieb am
TNT.ungut hat geschrieben:ich hätte es eigentlich auch lieber gesehen, wenn man so etwas in cpu´s verwenden würde.
vor 5 jahren waren die grakas noch der flaschenhals. heut sinds meist die cpus. erkennst du sehr gut an den benchmarks in denen die gpu features aktiviert sind (aa, ff etc.). gerade modernere grafikkarten haben noch platzt nach oben hin, waehrend die cpu schon am limit rödelt.
gruss
edit, sorry, konnts mir nicht verkneifen,
Hotohori hat geschrieben:Glaub kaum, dass der nochmal auftaucht, hat gerade mal 8 Beiträge und die hatte er glaub alle nur in diesem Thread. ;)
du hast 11001 beitraege ... fliegen gibt es in der heutigen form seit millionen von jahren. evolutionstechnisch haben sie sich also bewaehrt. sie ernaehren sich von aas und vermehren sich im kot. mit anderen worten: zahlen sind was feines
TNT.ungut schrieb am
ich hätte es eigentlich auch lieber gesehen, wenn man so etwas in cpu´s verwenden würde. aber im grunde ist das eigentlich egal, das wird sich dann preislich doch wieder ausgleichen. werden gpu´s halt wichtiger und teurer und cpu´s dann billiger, oder zumindest braucht man als spieler dann nicht mehr so teure.
aber es ist ja auch immer noch nicht gesagt, daß sich die physx engine durchsetzt. erstmal müssen die developer nachziehen und auch große spiele basierend darauf entwickeln. das wiederrum ist allein deswegen schon nicht garantiert, weil man die ati kunden ziemlich vernachlässigen würde damit.
leifman schrieb am
@mironator und hotohori
ihr müsst einfach weiterdenken und die physikberechnung per gpu einfach wie ein neues feature z.b. hdr ansehen! hdr geht nämlich auch auf kosten der framerate! :wink:
jetzt ein neues feature -> bald standard, mal sehen wie ati nachzieht und ob es einen einheitlichen treiber/versions-standard geben wird? wohl eher nicht...
greetingz
schrieb am

Facebook

Google+