Vor rund zwei Wochen überraschte IBM die Technologiewelt mit der Ankündigung, Grossrechner-Hardware speziell für die Simulation virtueller 3D-Welten zu entwickeln und zu vermarkten. Viele Marktbeobachter hat das verwirrt und irritiert: Mainframes für virtuelle Welten? Spezialhardware, wie der Cell-Prozessor, der auch in Sony's neuer Playstation zum Einsatz kommt, auf der Server-Seite?
Auf den ersten Blick mag das tatsächlich merkwürdig anmuten: Spezial-Hardware war bislang eher auf der Client-Seite (bei den PCs der Anwender) in Form leistungsfähiger 3D-Chips zu finden. Und Mainframes werden von vielen als die aussterbenden Dinosaurier der Computer-Branche angesehen. Die Server-Seite wird heutzutage typischerweise auf großen Clustern mit Hunderten oder Tausenden von preisgünstigen PC-Servern realisiert. Second Life basiert zum Beispiel auf etwas mehr als 2000 Servern, die auf momentan 2 Rechenzentren verteilt sind. Von diesen Servern zu den Rechnern der Anwender fließt nur ein (relativ) geringer Datenstrom, da die hochauflösenden Bilddaten lokal auf jedem einzelnen Anwenderrechner erstellt werden.
Wieso sollte man an dieser erfolgreichen Arbeitsverteilung etwas ändern?
Tatsächlich kann es dafür viele Gründe geben. In allen virtuellen Welten ist man bis heute zum Beispiel darauf beschränkt, sich mit maximal 40, 50 oder 60 Leuten an einem Ort zu treffen. Dann machen die Server schlapp. In Second Life kann man mit ein paar Tricks tatsächlich bis zu 150 und mehr Leute versammeln, die sich alle gegenseitig sehen können - aber das ist das Maximum. Tatsächlich ist diese Enschränkung nicht so dramatisch, wie immer wieder kolportiert wird. (Bei wie vielen Gelegenheiten ist man in der physischen Realität mit mehr als 20 oder 30 Leuten zusammen?) Aber es gibt Anwendungsfälle, da ist das lästig. Große Konferenzen zum Beispiel, virtuelle Konzerte oder ähnliche Events, bei denen man gerne hunderte oder gar tausende Leute an einem Ort versammeln würde. So etwas ist mit Standard-Servern nicht zu schaffen.
Details über das IBM-Projekt sind noch nicht zu erfahren, es ist aber eventuell sogar denkbar, dass die neuen Server-System sogar die Berechnung der 3D-Abbildungen übernehmen könnten und nur noch die Bilddaten an die lokalen PCs bei den Anwendern senden. Dann sind keine umfangreichen Software-Downloads mehr nötig, auch keine spezielle Hardware. Und da die Daten der 3D-Objekte die Server niemals verlassen, wäre es deutlich schwieriger, sie zu kopieren. Es gibt eine Menge Unternehmen, die gerade an diesem letzten Aspekt sehr interessiert wären.
Plausibel ist die Entwicklung solcher Hardwarelösungen auch dadurch, dass nicht nur virtuelle Welten davon profitieren würden. Zumindest eine andere Technologie, die momentan ebenfalls enorme Wachstumsraten zu verzeichnen hat und der eine großes Potential zugeschrieben wird, stellt ähnliche Herausforderungen: IP-TV. Wenn Tausende, Hundertausende oder gar Millionen von Anwendern sich ihr individuelles TV-Programm aus dem Internet holen, werden klassische Rechner- und Netzwerk-Architekturen damit nicht mehr fertig. Denn dann muss für jeden einzelnen dieser Anwender ein individueller Datenstrom von mehreren Megabit/sec bereit gestellt werden (beim Broadcasting, bei dem alle Zuschauer das selbe Programm betrachten, gibt es dieser Problem nicht).
Nicht ganz zufällig kündigte deshalb IBM-Wettbewerber Sun in der selben Woche einen Server speziell für Anbieter von IP-TV an, der in der Lage sein wird, zehntausende Anwender mit individuellen Videostreams zu versorgen. Ich möchte wetten, dass dieses "Stück Eisen" mit ein bisschen zusätzlicher Software ebenfalls ein exzellente Grundlage für virtuelle Welten (mit deutlich höheren Limits für die Zahl der Avatare an einem Ort) darstellt.
Technorati Tags: second life, virtual worlds, web 3.d
Hm, interessanter Ansatz und sicher wird dies auch ein wichtiger Punkt bei der Simulation virtueller Welten in der Zukunft sein.
Soweit ich richtig informiert bin, hat ja IBM schon mehrere Millionen in Second Life investiert. Ich könnte mir gut vorstellen, dass hinter den Kulissen zwischen LindenLAB und IBM schon intensivere Verhandlungen für die aktive Unterstützung bei der Servertechnologie, stattfinden.
Posted by: Enki | Friday, 18 May 2007 at 17:21
Das mit dem "(relativ) geringem Datenstrom" war aber ironisch gemeint, oder? Immerhin zwingt dieser "geringe" Datenstrom (über den unter anderem ALLE Texturen sowie jegliche Kommunikation fließen) mein iBook dermaßen in die Knie, dass die Software meint, die Verbindungsqualität ließe zu Wünschen übrig. Scheinbar ist einfach nicht genug Arbeitsspeicher/Prozessorleistung vorhanden um den Datentransfer effizient abzuwickeln.
Eigentlich qualifiziert sich der Cell Prozessor nicht als Spezialhardware. Das verhindert allein schon die Massenfertigung für den Consumer-Bereich (Playstation 3).
Laut IBM ist er für Kryptographie, 3D-Berechnungen, physikalische und mathematische Berechnungen ausgelegt, also Alltagskram (vgl. Pentium, Athlon, PowerPC).
Allerdings soll er dabei etwas (wenn nicht wesentlich) schneller und energiesparender als die Konkurenz sein...
Ich vermute, dass der Cell eher den Berechnungen der Physics-Engine und dem Verarbeiten der Skripte zu Gute kommen soll als der Berechnung von 3D Grafiken. Immerhin läuft die Physics-Engine sowie die Skripte schon jetzt ausschließlich serverseitig, während ein "Vorberechnen" der 3D Grafiken sich vermutlich nicht so einfach implementieren lässt. Vor allem da sich die von Second Life unterstützten Plattformen (Windows, Macintosh und Linux) doch sehr stark unterscheiden und die eigentliche Berechnung im höchsten Maße von der Grafikkarte abhängt.
Posted by: David | Saturday, 02 June 2007 at 21:59