Klatsch, Fakten, News, Betas 5.087 Themen, 27.850 Beiträge

News: Erste Infos zu Larrabee

Spiele mit Raytracing statt Rastergrafik

MadHatter / 11 Antworten / Flachansicht Nickles

Schon einige Zeit geistern kleine Info-Häppchen zu Intels Grafikchip "Larrabee" durchs Internet. Konkrete Fakten gibt es noch nicht, ein paar Dinge stehen allerdings schon fest und bieten Raum für interessante Spekulationen:

So wird der Larrabee-Chip kein gewöhnlicher Grafikchip werden wie von AMD und nvidia gewohnt. Als wohl größter Unterschied wird eine sogenannte „Many-Core“ Architektur zum Einsatz kommen. Man spricht hier je nach Ausbaustufe von 10-100 Kernen pro Chip (andere Quellen berichten von 32 Kernen). Die einzelnen Kerne werden mit großer Wahrscheinlichkeit an die x86-Architektur anknüpfen und hinsichtlich Komplexität und Featureset mit einem Pentium 1 vergleichbar sein. Wie Intel das bewerkstelligen will, ist derzeit noch völlig unklar. Weder ein Pentium 1, noch die x86-Architektur eignen sich für Vektorgrafiken oder Shader-Berechnungen

Sollten diese Infos korrekt sein, so ergibt sich eigentlich nur eine Schlussfolgerung: Larrabee wird alles andere als eine gewöhnliche Grafikkarte die Rastergrafiken ausgibt, es spricht hier vielmehr alles für einen Hardware-Raytracer, eine abgeänderte Form der GPGPU. Dass mit Raytracing beeindruckende Ergebnisse erzielt werden können, ist hinlänglich bekannt, jedoch fehlte es bisher schlicht an der dazu nötigen Rechenpower. Eine derart hoch parallelisierte Recheneinheit sollte genügend Leistung für Echtzeit-Raytracing haben.

Gegen einen reinen Raytracer spricht wiederum die Aussage von Intel-Chef Otellini, der sagte „discrete graphic chips have OpenGL and Direct3D“. Wie Intel mit einer x86-ähnlichen Architektur Raytracing und D3D/OGL realisieren will, ist noch komplett offen – vorausgesetzt, diese Info ist überhaupt korrekt.

Auch wird Intel, sollte es sich tatsächlich um einen Hardware-Raytracer handeln, auf massive Probleme stoßen:
Erstens hat man dann zwar einen hochpotenten Chip, der aber völlig nutzlos ist, weil es einfach keine Engines und keine Spiele gibt, die Raytracing verwenden. Selbst wenn man heute anfängt, zu programmieren – man wäre bereits jetzt mindestens zwei Jahre zu spät dran.

Zweitens ist reines Raytracing auch nicht der Stein der Weisen. Es gibt genügend Dinge, in denen die klassische Rastergrafik weitaus einfacher und schneller ist. Eine Engine, bzw, ein Chip, die/der Raytracing und Rastergrafik kombiniert, wäre hier wohl (wenigstens vorübergehend) die wesentlich schlauere Alternative. Hier kommen wir aber wieder bei dem Problem von oben an.

Drittens gibt es wohl nichts komplexeres als einen Grafiktreiber. Wenn man sich die (qualitativ höchstens durchschnittlichen) Intel-Treiber für die hauseigenen Grafikchips ansieht, so liegt die Vermutung nahe, dass das einfach nichts werden kann: einen Treiber für einen noch nie dagewesenen Chip, für eine neue Architektur, für neue Spiele-Engines zu schreiben, scheint beinahe unmöglich. Führt man sich zudem noch vor Augen, dass gut ein Drittel der Belegschaft von nvidia nur für das Schreiben der Treiber bezahlt wird (an die seit Jahren einfach nur „drangebastelt“ wird), so erscheint dieses Dilemma in einem noch dunkleren Licht.

Zweifelsohne hat Intel das nötige Know-How um diesen Chip zu bauen, wie aber die dazu nötigen Rahmenbedingungen geschaffen werden sollen, steht derzeit aber noch völlig in den Sternen. Auch was dann schlussendlich wirklich dabei rauskommt, weiß derzeit noch niemand.
Konkret lässt sich lediglich sagen: Ende dieses Jahres will Intel erste Samples des Chips haben, mit der Produktion und dem Marktstart ist aber nicht vor Anfang 2010 zu rechnen. Ob Intel bis dahin die genannten Probleme in den Griff kriegt?

Quellen:

http://www.beyond3d.com/content/news/565
http://www.heise.de/ct/08/15/022/
http://hardware.slashdot.org/hardware/08/07/07/1945203.shtml
http://www.xbitlabs.com/news/video/display/20080305171043_Intel_to_Be_More_Active_in_the_Graphics_Market.html

Hinweis: Vielen Dank an MadHatter für das Verfassen der News. Diese News stammt von einem Nickles.de-Teilnehmer. Die Nickles.de Redaktion übernimmt keine Verantwortung für den Inhalt und die Richtigkeit dieser News.

Bei Nickles.de kann übrigens jeder mitmachen und News schreiben. Dazu wird einfach in einem Forum ein neues Thema begonnen und im Editor die Option "News" gewählt.

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
MadHatter xafford „MadHatter, Du vergisst 2 Sachen, ich fange mal mit der letzten an, weil sie am...“
Optionen

Moin Xaff!

Dennoch bleibt das Henne-Ei-Problem ;-)

Mir ist durchaus klar was ein Compiler macht, trotzdem (und da glaube ich, wirst du mir Recht geben), einen Sprung ohne Absatz vom Rasterizer zum reinen Raytracing werden wir trotzdem nicht erleben.
Natürlich lässt sich Raytracing auch auf einem Pentium berechnen, machbar ist sich auch der umgekehrte Weg, also z.B. einen DX10-Shader auf einem (Hauszahl) Pentium 4 zu berechnen, dann allerdings mit starken Abstrichen in punkto Leistung.

Dedizierte Hardware ist immer schneller in der Anwendung, für der sie geschaffen wurde, auch sind die Compiler dort wesentlich weniger komplex. Da kann man noch so tricksen, man arbeitet immer entgegen der Effizienz. Mit übertakteten Core 2 Duos ist man heute soweit, den 3DMark2001 im Software-OGL-Modus laufen zu lassen und dabei die Werte zu erreichen, die eine GeForce TI vor x Jahren hatte - okay, das ist jetzt vielleicht ein blödes Beispiel ;-)

Die von Intel offensichtlich anvisierte "Dampfhammer-Methode" spekuliert vermutlich darauf: man stellt genügend Rechenleistung für RT-RT zur Verfügung, und hofft dabei, dass diese Rechenleistung auch für die gewöhnlichen Rasterizer ausreicht. Ob dieses Konzept aber aufgeht?

Interessant wäre zu erfahren, wie sich in punkto Raytracing eine moderne GPU gegen eine CPU schlägt, die hochparallelisierten Grafikchips wären [spekulation] meiner Einschätzung nach deutlich im Vorteil. Dass das durchaus geht, beweist nvidia mit CUDA (jetzt nicht in punkto RT).

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen