von Marcel Kleffmann,

NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Nvidia (Unternehmen) von Nvidia
Nvidia (Unternehmen) von Nvidia - Bildquelle: Nvidia
NVIDIA hat ein neue Grafikkarte angekündigt. Die NVIDIA Titan Xp soll die "leistungsfähigste NVIDIA-Grafikkarte aller Zeiten" sein. Die auf der Pascal-Architektur basierende Grafikkarte bietet 3.840 NVIDIA CUDA-Recheneinheiten bei 1,6 GHz, 12 GB GDDR5X-Speicher und eine Rechenleistung von 12 TFLOPS (GeForce GTX 1080 Ti: 11,7 TFLOPS; NVIDIA Titan X: 11,1 TFLOPS;  GeForce GTX 1080: 8,6 TFLOPS; Daten: 3DCenter). Der Preis ist allerdings happig und beträgt und 1.349 Euro.

Technische Daten der Grafikprozessor-Engine:
  • NVIDIA CUDA Cores: 3840
  • Boost-Takt (MHz): 1582

Technische Daten des Speichers:
  • Speichertyp-Geschwindigkeit: 11,4 Gbit/s
  • Standard-Speicherkonfiguration: 12 GB GDDR5X
  • Breite der Speicherschnittstelle: 384-Bit
  • Speicherbandbreite (GB/s): 547,7 GB/s

Leistungsaufnahme der Grafikkarte (W): 250 W

Quelle: NVIDIA

Kommentare

Liesel Weppen schrieb am
DonDonat hat geschrieben: ?11.04.2017 09:57 Nicht alles was hinkt ist ein Vergleich. RAM ist nicht sichtbar und hat keine Grenze, die die menschliche Wahrnehmung überschreiten würde.
Dein Vergleich sind die sprichwörtlichen Äpfel und Birnen. Nur weil beides Obst ist, haben die noch lange nicht viel miteinander zu tun.
Liesel Weppen hat geschrieben: ?10.04.2017 22:42 Und wieder diese Unterstellungen :roll:
Sorry, aber nur weil ich versuche euch zu erklären wieso 8k einfach nicht das "Allheilmittel" darstellt muss ich mir so was nicht gefallen lassen.
Hab ich dich zitiert, oder Balmung? Balmung? Ok, dann warst du nicht gemeint. Also unterstell mir nicht, dass ich dir sachen unterstellen würde. Du bist nicht das Zentrum des Universums, es dreht sich nicht alles um dich!
Exakt die gleiche Antwort gilt auch für deine zwei weiteren Zitate, ich seh nur nicht ein, warum ich das jetzt dreimal schreiben soll.
Und damit hast du dich dann für mich auch für jede weitere Diskussion vollständig disqualifiziert.
DonDonat schrieb am
Liesel Weppen hat geschrieben: ?10.04.2017 22:42
DonDonat hat geschrieben: ?10.04.2017 18:33 Weil 8k in 28 Zoll nun mal begrenzt sinnvoll sind. Als Analogie dazu bzw. um besser zu erklären wieso meine Meinung so divers erscheint ein Beispiel mit RAM: einerseits ist viel RAM gut/ sinnvoll, da so mehr Daten schnell zu Verfügung stehen können, andererseits gibt es für Normal-Nutzer quasi kein Szenario was 32GB RAM sinnvoll macht.
Nicht alles was hinkt ist ein Vergleich. RAM ist nicht sichtbar und hat keine Grenze, die die menschliche Wahrnehmung überschreiten würde.
Wenn du bei dem Vergleich bleiben willst, dann würde ich sagen, wer keine 32GB RAM braucht, soll sich auch keine 32GB Ram kaufen. Wer aber bei 28" UHD auf Schreibtischdistanz keinen Unterschied zu FHD sieht, der sollte dringenst zum Augenarzt gehen.
Ich hab mir damals in der Schule auch nichts dabei gedacht, warum ich aus der letzten Reihe die Tafelanschrift nicht mehr lesen konnte. Nun, das war nicht normal, sondern ich habe einfach nur schlecht gesehen und brauchte eine Brille.
Erstens ist mein Vergleich sehr voll zutreffend, da es, wie bei 4k, durchaus Szenarien gibt wo 32GB Vorteile bieten können und man einen Unterschied zu weniger RAM durchaus spüren kann und zweitens wo kommt denn immer diese Unterstellung her mit 28 Zoll und FHD???
Ich habe nie auch nur erwähnt dass ich 28 Zoll bei FHD für sinnvoll halte :roll:
Wenn überhaupt, dann FHD in 23 oder 24 Zoll. Eher aber im Notebook Format bei 13-17 Zoll, wobei für das kreative Arbeiten mit z.B. Photoshop oder Illustrator auch hier WQHD einfach besser ist.
Liesel Weppen hat geschrieben: ?10.04.2017 22:42
Balmung hat geschrieben: ?10.04.2017 18:12 Ich sag das lieber sorum, warum? Wenn 8K bei 28" Zoll gerade so dafür reicht, wird es bei einem deutlich größeren Monitor nicht mehr reichen. Von daher ist die ideale Auflösung eben nicht 8K, sondern ein bestimmter Pixelabstand macht die ideale Auflösung für die entsprechende Bildschirmgröße fest.
Verschwendete...
Maxi Musterfrau 2.0 schrieb am
XBLiveTV ONE hat geschrieben: ?10.04.2017 20:35 Ich poste ja normalerweise nichts zu PC-Themen. Aber solche Mondpreise für eine Grafikkarte sind einfach nur lächerlich. Wenn ein ganzer PC soviel kostet, und dann mindestens 2-3 Jahre ausreicht, ok. Das ist in etwa die Hälfte meines Monatsbudgets... ich käme nie auf die Idee sie dafür rauszuschmeißen. Naja, gibt auch Leute, die sich jedes Jahr das neueste iPhone/Samsung/etc. für nun bald über 1000? kaufen. Und doch können sie nicht in besserer Qualität telefonieren als jemand, der ein Smartphone für 200? hat.
Die ganze Welt wettert über Leute, die DLCs kaufen. Aber wer dann solche Preise bei Hardware unterstützt, der muss über die 4-15? DLC-Preise wirklich nicht meckern. Auch hier gilt: Wenn´s keiner kauft, wird´s auch zum halben Preis angeboten werden.
Angebot und Nachfrage. Sofern das Produkt sich so verkauft, das NV damit Gewinn macht, ist es kein Mondpreis.
unknown_18 schrieb am
Schlecht zitiert, da sind ein paar Zitate gar nicht von mir, war schon verwiirt. ;)
Ansonsten interessant das über Freesync/G-Sync zu lesen, klingt absolut logisch. Aber ich glaub UHD Geräte mit G-Sync gibts noch nicht so viel. Ist halt schade das NVidia Freesync überhaupt nicht supported, könnten sie problemlos, wenn sie wollten, wollen nur nicht.
Liesel Weppen schrieb am
DonDonat hat geschrieben: ?10.04.2017 18:33 Weil 8k in 28 Zoll nun mal begrenzt sinnvoll sind. Als Analogie dazu bzw. um besser zu erklären wieso meine Meinung so divers erscheint ein Beispiel mit RAM: einerseits ist viel RAM gut/ sinnvoll, da so mehr Daten schnell zu Verfügung stehen können, andererseits gibt es für Normal-Nutzer quasi kein Szenario was 32GB RAM sinnvoll macht.
Nicht alles was hinkt ist ein Vergleich. RAM ist nicht sichtbar und hat keine Grenze, die die menschliche Wahrnehmung überschreiten würde.
Wenn du bei dem Vergleich bleiben willst, dann würde ich sagen, wer keine 32GB RAM braucht, soll sich auch keine 32GB Ram kaufen. Wer aber bei 28" UHD auf Schreibtischdistanz keinen Unterschied zu FHD sieht, der sollte dringenst zum Augenarzt gehen.
Ich hab mir damals in der Schule auch nichts dabei gedacht, warum ich aus der letzten Reihe die Tafelanschrift nicht mehr lesen konnte. Nun, das war nicht normal, sondern ich habe einfach nur schlecht gesehen und brauchte eine Brille.
Balmung hat geschrieben: ?10.04.2017 18:12 Ja, Nivida will gegenüber AMD meist noch mal gut 100? mehr für ein sehr ähnliches Feature haben :(
Allerdings ist Adaptive-Sync halt schon sehr sinnvoll: nur deswegen konnte ich Fallout 4 richtig spielen, da ich dort leider oft FPS Drops in den <60FPS Bereich habe. Oder um ein anders Beispiel zu nennen: Nier Automata lässt sich so auch ausgezeichnet spielen und dass obwohl der PC-Port alles andere als gelungen ist.
Adaptive-Sync ist nur der Vorgänger von Freesync. Und nur weil die Technik ähnlich ist, heisst das nicht, dass sie gleichwertig sind.
Und G-Sync ist halt einfach besser, weil kurzfassung:
1) Normaler Monitor mit 60 (oder 120 oder 144Hz), der Monitor pollt in seinem fixen Raster, gegeben durch seinen eigenen Timer, den Framebuffer und stellt das dar. Ohne V-Sync entsteht dabei Tearing (mit steigender Hertzzahl UND FPS natürlich weniger auffällig, weil der zeitliche Versatz kleiner wird). Das kommt daher, weil die...
schrieb am