Kommentar

hundertprozent subjektiv

KW 14
Dienstag, 31.03.2009

OnLive - Tiger oder Bettvorleger?


Die Game Developers Conference ist vorbei - was ist an wichtigen Neuigkeiten hängen geblieben? Mit Spannung wurden ja die Keynotes einiger Branchengrößen erwartet - vor allem die von Nintendochef Satoru Iwata. Es gibt also ein neues Zelda für den DS. Außerdem verkündet er, dass Wii jetzt auch High-Capacity-SD-Karten unterstützt und Spiele sogar von dort gestartet werden können - das hätte schon viel länger möglich sein können und müssen. In Sachen Spiele-Ankündigungen für Wii hielt er sich ansonsten zurück, so dass man sich wohl bis zur E3 gedulden muss. Das bekommt man allerdings seit zwei Jahren regelmäßig zu hören und irgendwie haben die dann erfolgten Ankündigungen à la Wii Fit, Wii Music oder Wii Sports Resort immer für Ernüchterung gesorgt. Auch die beiden anderen Keynotes von Hideo Kojima und ngcomo-Gründer Neil Young taugten kaum als Diskussionsstoff - große Enthüllungen gab es dort ebenfalls nicht.

Lebhaft debattiert wurde dagegen ein frisches Start-up: OnLive. Der gleichnamige Dienst verspricht ein Spielerlebnis auf mittelmäßiger Hardwarebasis; lediglich ein halbwegs potenter Internetanschluss wird vorausgesetzt: Wer 720p statt SD-Auflösung genießen will, sollte eine Anbindung mit mindestens 5 MBit/s sein Eigen nennen. Der Datenhunger erklärt sich durch das Grundprinzip von OnLive: Die Spiele selbst werden auf den Servern des Anbieters ausgeführt, welche dann das ausgegebene Videosignal an den Nutzer schicken. Dessen Rechner bzw. Set-Top-Box braucht sich dann nur noch um das Darstellen des Streams und das Entgegennehmen der Eingabesignale des Nutzers kümmern. Bei herkömmlichen Titeln wie auch Online-Rollenspielen gilt in der Regel: Nur Spieldaten werden ausgetauscht, die Grafik selbst wird aber auf dem Client berechnet.

Der OnLive-Ansatz hätte durchaus einige Vorteile, würde doch kein Highend-PC mehr vorausgesetzt, um ein Spiel zu konsumieren. Auch müsste man seinen Rechner zukünftig nicht mehr aufrüsten, ist doch der Anbieter für das Ausführen der Spiele und die dafür benötigte Rechenleistung zuständig. Für die Entwickler wäre ein solches Konzept ebenfalls interessant, da es sich bei den Server-Farmen um eine relativ homogene Hardwareumgebung handelt, bei der es nur wenig Varianz innerhalb der verwendeten Betriebssystem-Versionen, Grafik- und Soundhardware gibt. Im Dschungel der naturgemäßen Systemvielfalt im PC-Bereich könnte es so zumindest bestimmte Konfigurationen geben, für die eine Software optimiert oder zertifiziert werden könnte. Dem Endanwender dürfte es eh egal sein, müsste der sich doch nicht mehr mit Spielen herumärgern, die nicht mit einem bestimmten Anti-Virenprogramm, einer Firewall oder irgendwelchen Treibern harmonieren wollen.

Eines haben all jene Vorteile allerdings gemeinsam: Sie existieren im Moment nur auf dem Papier. Außer einer GDC-Demo in einer recht kontrollierten Umgebung - eine spezielle 24MBit-Anbindung - gab es bis dato noch nichts zu sehen. Erst die ersten wirklichen externen Testläufe werden Rückschlüsse über die Praxistauglichkeit des Dienstes zulassen. Auch dürften sich noch viele Spieler an all die Versprechen erinnern, mit denen Systeme wie Indrema oder das Phantom von Infinium Labs angekündigt wurden; zwei zu Bettvorlegern mutierte Tiger.

Bis zu 60 Bilder pro Sekunde würde man in einer entsprechenden Auflösung liefern, so eine Aussage der Gründer des Unternehmens. Das klingt nach dezentem 'Overpromise' - übersetzen wir das an dieser Stelle mal wohlwollend mit 'Optimismus' -, welches bei Start-ups üblich ist. Die wollen schließlich Aufmerksamkeit erzeugen, auch gilt es oft, weitere Investoren ins Boot zu holen. Das Zusagen einer entsprechenden Bildrate hält beispielsweise Richard Leadbetter, der sich für Eurogamer.net mit der Realisierbarkeit des Unterfangens auseinandergesetzt hat, für unrealistisch. Es wäre eine deutlich höhere Datenlast in Zeiten, wo sich viele Konsolenspiele auch mit 30 Bildern pro Sekunde zufrieden geben.

Auch müsste OnLive recht mächtige Serverfarmen aufbauen, in denen im Gegensatz zu den üblicherweise für solche Dienste vorgesehenen Rechner spieletaugliche Hardware vorhanden sein muss, mit der auch zu Stoßzeiten wie der Veröffentlichung eines neuen Spiels alle Nutzer befriedigt werden können.

Bis dato eher ausgeschwiegen hat sich OnLive zu einem anderen Thema: Die Handhabung der Latenzzeiten, sprich der Verzögerung, die dadurch entsteht, dass die Daten erst vom Client zum Server und umgekehrt wandern müssen. Dazu der Serverspezialist Marc Packenius vom freenet-Rechenzentrum:

"Um Lag zu minimieren, kann die abspielende Box nicht großartig buffern. Ohne Buffer schlägt wiederum jede Verzögerung im Netz direkt auf die Darstellung durch. Und ohne die Möglichkeit, für den Dienst Bandbreite zu reservieren, wird jedes noch so kleine Internetproblem für den Spieler auch sofort sichtbar - und der Anbieter kann dabei immer argumentieren, dass es ja nicht an ihm liegt, sondern an der Internetanbindung des Kunden. Ich könnte mir vorstellen, dass dieses Konzept daher nur in Kooperation mit einzelnen Providern angeboten wird. Innerhalb des T-Com-Netzes kann die Telekom z.B. die benötigte Bandbreite garantieren - also könnte das z.B. ein T-Online-Dienst nur für T-Online-Kunden werden."

Das OnLive-Modell soll bei Latenzzeiten von bis zu 50ms problemlos funktionieren. Das klingt für Online-Nutzer nach einem realistischen Wert, bei dem die meiste Software spielbar ist. Bei jenen Spielen wird die Latenz allerdings kaschiert mit diversen Tricksereien wie beispielsweise dem Abschätzen bzw. Prädiktieren von Laufpfaden basierend auf der derzeitigen Bewegung. Jene Kniffe sind aber nur dann möglich, wenn die Grafik des Spiels auf dem Client berechnet wird - das ist aber bei OnLive nicht der Fall.

Eine Mutmaßung, die mir mein ehemaliger Kollege Carsten Orthbandt - Netzwerkspezi und einer der Gründer der Berliner Spieleschmiede pixeltamer.net - auf Anfrage bestätigt. Die von OnLive patentierte Videokompression könnte immerhin sparsamer sein als übliche Verfahren, da der Dienst wohl verschiedene Ebenen des Bilds getrennt encodiert und diese dann auf dem Client wieder zusammensetzt. Beispielsweise könnten Hintergrundelemente stärker komprimiert werden als der Teil, der näher an der Position der Kamera ist.

Zum Geschäftsmodell hat sich das Start-up noch nicht geäußert, allerdings hält Orthbandt die Kosten für das Backend für wahnwitzig hoch. Die Rechner müssten nicht nur angeschafft, sondern auch betrieben und gewartet werden. Angesichts des potenten Innenlebens der PCs, wäre der Strombedarf enorm. Auch sei die Herausforderung des Streamens (von der Auflösung mal abgesehen) eine andere als beispielsweise bei einem Dienst wie Youtube. Dort würden man einfach auf ein Videopaket zugreifen, das für alle Nutzer gleich ist. Im Falle von OnLive muss naturgemäß für jeden Nutzer serverseitig ein individueller Stream berechnet werden.

Die durch die Datenmengen verursachten Traffic-Kosten dürften an sich schon hoch ausfallen, wenn man sich Nutzer betrachtet, die die 720p-Auflösung ausnutzen wollen, würden dort doch ca. fünf Mbit pro Sekunde anfallen: "Datacenter-Server sind normalerweise mit 100Mbit oder 1 GBit angebunden. Wenn ich mal mit netto 700 MBit rechne, komme ich auf 140 User pro Server." Das sei "um Größenordnungen schlechter" als bei einem Spiel wie Second Life.

Die Kosten dürften sich auch nicht verringern, falls OnLive irgendwann den europäischen Markt abdecken will. Die vorausgesetzten Latenzzeiten wären interkontinental nicht zu bewerkstelligen; der Anbieter müsste sich also auch in hiesigen Gefilden Hardware anschaffen. Generell ungeeignet, so Orthbandt, sei das Konzept für Mobilegeräte, da UMTS & Co. deutlich höhere Latenzzeiten haben. Von der Idee her würde OnLive aber genau für jene schwachbrüstige Systeme interessant sein. Auch im PC-Bereich gibt es einen Trend zur Mobilität; Laptops und Netbooks sind derzeit die beliebtesten Geräteklassen, aber mal eben unterwegs zocken kann man mit OnLive nicht.

Auch andere Fragen harren noch ihrer Beantwortung: Da die Spiele serverseitig gehandhabt werden, können sie nicht wie üblich von Nutzerseite bearbeitet werden. Wird man als Nutzer dennoch die Möglichkeit haben, serverseitig irgendwelche Mods zuschalten zu lassen oder fallen jene Community-Inhalte dort flach? Sollte der Ansatz den individuellen Erwerb von Spielen vorsehen: Was passiert, falls die Firma später pleite geht und verschwindet? In einem Geschäftsmodell, in dem man nicht nur Abo-Gebühren, sondern auch individuell für bestimmte Spiele löhnt, wäre das ein kritischer Punkt. Es ist nicht damit zu rechnen, dass einen dann alle beteiligten Publisher mit echten Vollversionen ausstatten werden - auch würden die einem nicht unbedingt viel bringen, da man dann ja vielleicht nicht die dann benötigte Hardware daheim hat, um sie zu konsumieren.

Perlman ist zwar an anderer Stelle auf ein Latenzproblem eingegangen, spricht dort allerdings nur über die Kompression der Bilddaten, nicht die Verzögerung durch den Datentransfer, wie Orthband anmerkt. Auch würde das wohl zum Einsatz kommende Broadcast-over-IP-Verfahren (Multicast) kaum etwas bringen, da es, von einem Spectator-Modus mal abgesehen, keinen Sinn macht, den gleichen Stream an verschiedene Ziele zu liefern. Der Kunde könnte zudem doppelt zur Kasse gebeten werden, falls die Internetanbieter Nutzern bestimmte Low-Latency-Pakete schmackhaft machen wollen, die natürlich mit einem Aufpreis verbunden sind.

Die Zahl der Nutzer pro Server sei nicht wichtig, findet Perlman, wichtig seien die Einnahmen pro Rechner. Und im Falle der OnLive-Server würden diese "viele Dollar pro Nutzer" betragen. Die Macher verweisen auch darauf, dass Firmen wie Electronic Arts oder Take-Two ihre Unterstützung zugesagt haben - denen kann es allerdings relativ egal sein, ob das Konzept letztendlich funktioniert oder nicht. Läuft es, so bedeutet OnLive eine zusätzliche oder alternative Einnahmequelle. Läuft es nicht, so ändert sich rein gar nichts, da OnLive und seine Investoren das Risiko tragen.

Die nächsten Wochen und Monate dürften interessant werden, weil dann nämlich Schwergewichte wie Intel, AMD/ATI oder nVidia PR-mäßig schweres Geschütz auffahren dürften. Der Grafikkartenhersteller gibt sich derzeit fasziniert, und schließlich könne man ja auch Hardware an OnLive verkaufen - allerdings dürfte dort deutlich weniger Geld zu holen sein als im Endkundenmarkt. Zumal Perlman die Kosteneffizienz seiner Server auch damit begründet, dass diese erst nach ca. drei Jahren gewechselt werden müssen. Das dürfte Firmen, die - zumindest gefühlt - jeden Tag einen neuen Chip vorstellen, kaum befriedigen. Ein Gigant wie Intel, der deutlich mehr Geld auf der Bank hat als das Start-Up, dürfte nicht viel Interesse daran haben, ein Projekt wie die Larrabee-Architektur vom Stapel laufen zu lassen, um sie dann vorwiegend nur noch an spezielle Anbieter auszuliefern.

Letztendlich bleiben wohl nur drei Szenarien: 1) OnLive hat tatsächlich den Stein der Weisen gefunden und sich einen Ansatz ausgedacht, dessen technische Realisierbarkeit derzeit (in der versprochenen Form) von vielen Entwicklern offen oder hinter vorgehaltener Hand angezweifelt wird. 2) OnLive wird in den kommenden Monaten nach und nach zurückrudern und ein paar der ursprünglichen Aussagen relativieren. Der Dienst würde immer noch an den Start gehen, dann allerdings deutlich weniger bieten, z.B. nur sehr wenige Kunden mit extrem guten Anbindungen erreichen, oder sich nur für jene Genres eignen, bei denen die Latenzzeit weniger kritisch ist. 3) OnLive ist ein dubioses, auf dem derzeitigen Cloud-Hype aufsetzendes Konzept, mit dem man Investoren das Geld aus der Tasche ziehen will - Infinium Labs lässt grüßen.

Ein allumfassender Ansatz wird der Dienst vorerst in jedem Fall nicht, da der rasant wachsende Mobil- bzw. Handheld-Markt nicht abgedeckt wird, und aufgrund der technischen Gegebenheiten auch auf absehbare Zeit nicht abgedeckt werden kann. Und da eine recht fixe Internetanbindung zwingend vorausgesetzt wird, wird auch nur eine Teilmenge der heutigen Spieler erreicht. Die SD-Auflösung wird zumindest für hartgesottene Nutzer kaum attraktiv erscheinen und sich bei so manchem Spielen außerdem kaum eignen.

Spätestens mit dem versprochenen Betatest wird man wissen, ob OnLive wirklich ein kreativer Tiger ist oder bloß ein weiterer (vermeintlich) visionärer Bettvorleger. Etwas frischer Wind kann der Branche jedenfalls nie schaden, etwas Ansporn für die etablierten Plattformbetreiber wäre ebenso wünschenswert. Bis dahin muss man allerdings skeptisch bleiben.

Julian Dasgupta
4P-Redakteur

 

 


 

Kommentare

Titioesi schrieb am
Es wurde eine 4 Option vergessen: Onlive hält was es verspricht, aber die Kosten sind so hoch das die Kunden es nicht tragen können und Onlive geht pleite.
ELE! schrieb am
Wenn das einschlägt, vorausgesetzt es ist bezahlbar, würde es große Umsatzeinbußen bei der Hardware-Industrie geben... Jeder der einen 2 gHz pc mit 512mb Ram hätte könnte die modernsten Spiele spielen... sofern er eine gute Leitung hat...
Das würde das ganze [Neue Spielegeneration=Neues Setup] Marketing gehörig auf den Kopf stellen...
mal sehen was daraus wird...
mich würde schon interessieren wie sich die Spielewelt entwickelt, wenn sich dieses System durchsetzt... :)
Shadow_Flüsterer schrieb am
Als ich das erste mal von OnLive deren Konzept hörte, da dachte ich erst einmal das man ein paar brandneue Storydetails zu Mass Effect 2 preisgegeben hätte, diese Schlingel :banane:
Armageddon_de_Nox schrieb am
Das wird nicht passieren.... wenn ein server 140 Spieler versorgen kann.... wieviele Server braucht man dann um 300.000 Spieler zu versorgen.... das ist einfach nur großer Unsinn.... die Kosten wären imens und der Nutzen nicht groß genug :?
schrieb am