von Jörg Luibl,

Sony, IBM & Toshiba enthüllen Cell

Sony (Unternehmen) von Sony
Sony (Unternehmen) von Sony - Bildquelle: Sony
Das Hightech-Bündnis hat gesprochen: Heute haben Sony, Sony Computer Entertainment, IBM und Toshiba erste Details zur Cell-Technologie vorgestellt, die u.a. in der kommenden PlayStation 3 zum Einsatz kommen und in naher Zukunft den klassischen PC ablösen soll.

Zwar werden die ausführlichen technischen Details erst auf der für Anfang Februar geplanten International Solid State Circuits Conference (ISSCC) in San Francisco präsentiert, aber es gibt bereits einen Batzen interessanter Hinweise. Sony-Chef Ken Kutaragi prophezeit mit Cell bereits die Verschmelzung diverser Technologien wie Videospiele, Fernseher, Rekorder und Audiogerät in einem einzigen heimischen Breitbandnetzwerk:

"In the future, all forms of digital content will be converged and fused onto the broadband network."

Laut Pressemitteilung verbirgt sich hinter Cell ein 64-Bit-Power-Prozessor, der für rechenintensive Operationen und Breitband-Anwendungen wie hochauflösende Spiele und Filme optimiert wird. Er soll zehn Mal so leistungsstark sein wie aktuelle Computer. Außerdem besitzt er folgende Eigenschaften:

- basiert auf Multi-Thread- bzw. Multicore-Architektur
- unterstützt mehrere gleichzeitig laufende Betriebssysteme 
- Zugriff mit hoher Bandbreite sowohl auf den Hauptspeicher als auch andere Chips
- flexibles I/O-Interface auf dem Chip
- Echtzeit-Ressourcenmanagement für Echtzeit-Applikationen
- Sicherheits-Feature zum Datenschutz direkt auf dem Chip angebracht
- eingebaut in 90 Nanometer-Silicon-on-insulator-Technologie
- Stromsparfunktion

Die Produktion des Chips startet im ersten Halbjahr 2005. Die Premiere feiert die Technologie in einer von Sony und IBM entwickelten Workstation, die vor allem klassischen Prozessor-Anbietern wie Intel oder AMD Konkurrenz machen wird. Außerdem wird Sony nicht nur die PS3, sondern auch Heim-Server für Breitbandanwendungen damit ausrüsten. Toshiba wird Cell erst 2006 in einem High-Definition-Fernseher (HDTV) arbeiten lassen.

Mehr zum Thema bei Reuters und Golem.


Kommentare

Max Headroom schrieb am
@analus:
Wenn man etwas überlegt sollte einem ganz schnell klar werden, dass eine Online Berechnung der Daten nicht möglich ist.
Das ist ja klar, k(l)ein Zweifel ! Deshalb ist die Vernetzung der Rechenleistung erstens nur für komplexe Rechenanwendungen (Rendern einer Szene, kmplx. Simulation,...) interessant, wie sie heute in Clustern zu finden ist. Für Spiele wurde dies ja schnell verworfen und wird höchstens als \"Zusammenspiel\" mehrerer Chips im selben Gehäuse zu finden sein. Habe heute gelesen, dass die X-Box Next *eine* PPC-CPU mit 3 vollwertigen Kernen besitzen wird. Whow, HT-at-its-best (^,-)
Vernetzung ist in dem Sinne darauf bezogen, dass mehrere Chips in ein Gerät gebaut werden können u. sich austauschen und zusammen arbeiten können.
Diese \"Vernetzung\" ist im Grunde schon älter. Die beiden CPUs in der SEGA-Saturn Console wären in diesem Sinne ja die ersten CELL-Prototypen der Welt gewesen ? (^_^)hehe. SEGA war eben seiner Zeit vorraus.
Aber das könnte wirklich stimmen. Womöglich bedeutet \"dynamische Kernverwaltung\" ja nichts anderes, als *mehrere CELLs* selbstständig zu verwalten. Who knows ... das wäre zwar ein guter Schritt in Multi-Prozessor Techniken, aber dennoch weit entfernt zur Multicore-CPU die der CELL ja sein soll. Ich tippe weiterhin eher auf eine Aufteilung der CPU-Leistung in vollständig eigene Bereiche, die per Datenaustausch seine Tasks automatisch synchronisiert. Bei einer Multi-CPU Programmierung muss sich der Coder bis heute immer selbst darum kümmern, wann welche CPU zu arbeiten hat und wann die Daten bereitstehen müssen. Wenn diese Arbeitsteilung die CPU abnehmen würde, und noch dazu seine \"Kraft\" in virtuelle CPUs aufteilen könnte, ohne (grossen ?) Rechenverlust, dann wäre dies *die* Revolution (Evolution?) im CPU-Gewerbe, auf die die Welt wartet. Ein Multi-Prozessor System für jedermann, schnell und günstig. Gut, anscheinend wohl nicht x86er kompatibel, doch mit genug Rechenkraft unter der Haube.
Ich gehe nun in die Küche,...
analus schrieb am
Wenn man etwas überlegt sollte einem ganz schnell klar werden, dass eine Online Berechnung der Daten nicht möglich ist. Wenn man die Busgeschwindigkeit u. Bandbreite eines PC Systems mit der eines heutigen Internetanschluss vergleicht sieht man sofort das sämtliche User die dann spielen oder deren Konsole berechnet was andere spielen an einer Art Backbone hängen müssten, die noch nicht erfunden ist.
Vernetzung ist in dem Sinne darauf bezogen, dass mehrere Chips in ein Gerät gebaut werden können u. sich austauschen und zusammen arbeiten können.
Max Headroom schrieb am
@saxxon.de:
(..So extrem wird wohl keiner sein und auf CoPros verzichten..)
eine Konsole mit nur einem Hauptprozessor und ohne GPU gibt es bereits: das N64.
Schonmal per Google nach \"N64 graphics GPU\" gesucht ?
In contrast to the SNES, the N64 had loads of processing power, with a MIPS CPU at 93.75MHz and an \"Immersion Graphics\" GPU very capable of 24bit texture/3D rendering,(..)
CPU: 64bit R4300 @ 93.75Mhz
Graphics: 64bit GPU @ 62.5Mhz, 640x480 res, 16.8 mil. colors
Auf http://www.cyberiapc.com/vgg/nintendo_n64.htm findet man eine schönere Auflistung der Project Reality...
CPU: 64-bit R4300i RISC (93.75MHz) / 64-bit data paths, registers with 5-stage pipelining
Co-processor: 64-bit RISC (62.5MHz)
Graphics: Pixel Drawing Processor (RDP) built into co-processor
Soweit ich weiss hat der R4300 aber keine Möglichkeit, 24bit Texturen auf Polygone zu klatschen, geschweige denn von Effekten wie Fog & Co.
Dafür ist es ein RISC-Prozessor, was ihm ein Boost gegenüber Full Instruction CPUs ermöglicht. Der Co-Pro ist ein eigener Chip, eben ein Co-Prozessor, wie er zusammen mit Silicon Graphics entwickelt wurde.
Wired.com schrieb dazu:
Reality Engine Coprocessor: The heart of the N64 (and no small source of pride for Silicon Graphics), Reality is actually two independent processors: one manages texturing (texture maps, antialiasing), while the other manhandles video, audio, and polygons.
Grafik, Sound, Ki, das ganze Spiel wurden allein vom Hauptprozessor verarbeitet.
Bist Du dir da jetzt immer noch so sicher ? (^,-).
Ciao-Ciao...
-=MAX HEADROOM=- - Der Virus der Gesellschaft
Max Headroom schrieb am
@saxxon.de:
Dass diese Idee verworfen wurden, war mir neu, ebenso die Details über die Arbeitsweise des Chips.
Verworfen ist da ja an sich nichts öffentlich. Aber es wurde ja auch nie öffentlich bekanntgegeben, das die PS3 ihre Kraft \"nur\" aus der Online-Vernetzung bezieht. WIE der anscheinend Chip arbeitet, kann man sich an den Patenten und Spec-Blätter zusammenreimen. Das endgültige Produkt werden wir ja noch bestaunen. Aber anscheinend ist die Idee hinter dem CELL so gut, dass sie gleich für eine der nächsten Generationen der PC-Architektur in Erwähnung gezogen wird.
Dennoch bedeutet die Aufteilung des Chips nicht, dass er wirklich eine überragende Leistung bringt.
Wenn Du die Technik hinter den heutigen Chips ansiehst, wie DIE ihre Daten verarbeiten und welchen Weg die Daten vom Speicher bis hin zur Pipeline und den einzelnen Rechenbereichen gehen, wirst Du sehr schnell feststellen, dass die CPU seltenst zu 100% ausgenutzt wird. Irgendwo ist und bleibt da immer was übrig, was nicht optimal genutzt wird. Jede Chipschmiede versucht, durch geschickte Pipes und Pre-Fetch Algorhytmen möglichst das beste \"Ausnutz-Ergebnis\" zu erzielen. Doch so sehr die Chips auch vom 386er zum P4-HT und Athlon64 hochgezüchtet wurden, die Methode die Daten zu nehmen, in fest verdratete Pipes zu schicken und möglichst gut die Daten verteilen, damit sie auch flott wieder rauskommen, hat sich nichts verändert.
Der P4 hat mit der HT-Technik gezeigt, wohin der Trend in Zukunft geht. Weniger in höheren Hertz-Zahlen, als in besserer Ausnutzung der CPU. Und was die Gerüchteküche da im Hause IBM/SONY da fabriziert, ist wirklich eine Revolution, denn anscheinend macht sie Schluss mit Standard-Pipelines und festen Rechenbereiche und ähnelt den (frei programmierbaren) DSP-Chips, die zwar hochflexibel sind, aber auch arschlahm.
In wiefern diese neue Technik sich in Punkto subjektiver Geschwindigkeit von der uns bekannten Technik unterscheidet, wissen wir ja noch nicht. Aber das sie sicherlich...
johndoe-freename-75285 schrieb am

Ich freue mich total auf die PS3!
Da kann die dumme XBox2 und der komische Nintendo Revolution einpacken!
PS3 RULES!
schrieb am