Klatsch, Fakten, News, Betas 5.087 Themen, 27.850 Beiträge

News: Erste Infos zu Larrabee

Spiele mit Raytracing statt Rastergrafik

MadHatter / 11 Antworten / Flachansicht Nickles

Schon einige Zeit geistern kleine Info-Häppchen zu Intels Grafikchip "Larrabee" durchs Internet. Konkrete Fakten gibt es noch nicht, ein paar Dinge stehen allerdings schon fest und bieten Raum für interessante Spekulationen:

So wird der Larrabee-Chip kein gewöhnlicher Grafikchip werden wie von AMD und nvidia gewohnt. Als wohl größter Unterschied wird eine sogenannte „Many-Core“ Architektur zum Einsatz kommen. Man spricht hier je nach Ausbaustufe von 10-100 Kernen pro Chip (andere Quellen berichten von 32 Kernen). Die einzelnen Kerne werden mit großer Wahrscheinlichkeit an die x86-Architektur anknüpfen und hinsichtlich Komplexität und Featureset mit einem Pentium 1 vergleichbar sein. Wie Intel das bewerkstelligen will, ist derzeit noch völlig unklar. Weder ein Pentium 1, noch die x86-Architektur eignen sich für Vektorgrafiken oder Shader-Berechnungen

Sollten diese Infos korrekt sein, so ergibt sich eigentlich nur eine Schlussfolgerung: Larrabee wird alles andere als eine gewöhnliche Grafikkarte die Rastergrafiken ausgibt, es spricht hier vielmehr alles für einen Hardware-Raytracer, eine abgeänderte Form der GPGPU. Dass mit Raytracing beeindruckende Ergebnisse erzielt werden können, ist hinlänglich bekannt, jedoch fehlte es bisher schlicht an der dazu nötigen Rechenpower. Eine derart hoch parallelisierte Recheneinheit sollte genügend Leistung für Echtzeit-Raytracing haben.

Gegen einen reinen Raytracer spricht wiederum die Aussage von Intel-Chef Otellini, der sagte „discrete graphic chips have OpenGL and Direct3D“. Wie Intel mit einer x86-ähnlichen Architektur Raytracing und D3D/OGL realisieren will, ist noch komplett offen – vorausgesetzt, diese Info ist überhaupt korrekt.

Auch wird Intel, sollte es sich tatsächlich um einen Hardware-Raytracer handeln, auf massive Probleme stoßen:
Erstens hat man dann zwar einen hochpotenten Chip, der aber völlig nutzlos ist, weil es einfach keine Engines und keine Spiele gibt, die Raytracing verwenden. Selbst wenn man heute anfängt, zu programmieren – man wäre bereits jetzt mindestens zwei Jahre zu spät dran.

Zweitens ist reines Raytracing auch nicht der Stein der Weisen. Es gibt genügend Dinge, in denen die klassische Rastergrafik weitaus einfacher und schneller ist. Eine Engine, bzw, ein Chip, die/der Raytracing und Rastergrafik kombiniert, wäre hier wohl (wenigstens vorübergehend) die wesentlich schlauere Alternative. Hier kommen wir aber wieder bei dem Problem von oben an.

Drittens gibt es wohl nichts komplexeres als einen Grafiktreiber. Wenn man sich die (qualitativ höchstens durchschnittlichen) Intel-Treiber für die hauseigenen Grafikchips ansieht, so liegt die Vermutung nahe, dass das einfach nichts werden kann: einen Treiber für einen noch nie dagewesenen Chip, für eine neue Architektur, für neue Spiele-Engines zu schreiben, scheint beinahe unmöglich. Führt man sich zudem noch vor Augen, dass gut ein Drittel der Belegschaft von nvidia nur für das Schreiben der Treiber bezahlt wird (an die seit Jahren einfach nur „drangebastelt“ wird), so erscheint dieses Dilemma in einem noch dunkleren Licht.

Zweifelsohne hat Intel das nötige Know-How um diesen Chip zu bauen, wie aber die dazu nötigen Rahmenbedingungen geschaffen werden sollen, steht derzeit aber noch völlig in den Sternen. Auch was dann schlussendlich wirklich dabei rauskommt, weiß derzeit noch niemand.
Konkret lässt sich lediglich sagen: Ende dieses Jahres will Intel erste Samples des Chips haben, mit der Produktion und dem Marktstart ist aber nicht vor Anfang 2010 zu rechnen. Ob Intel bis dahin die genannten Probleme in den Griff kriegt?

Quellen:

http://www.beyond3d.com/content/news/565
http://www.heise.de/ct/08/15/022/
http://hardware.slashdot.org/hardware/08/07/07/1945203.shtml
http://www.xbitlabs.com/news/video/display/20080305171043_Intel_to_Be_More_Active_in_the_Graphics_Market.html

Hinweis: Vielen Dank an MadHatter für das Verfassen der News. Diese News stammt von einem Nickles.de-Teilnehmer. Die Nickles.de Redaktion übernimmt keine Verantwortung für den Inhalt und die Richtigkeit dieser News.

Bei Nickles.de kann übrigens jeder mitmachen und News schreiben. Dazu wird einfach in einem Forum ein neues Thema begonnen und im Editor die Option "News" gewählt.

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
Synthetic_codes MadHatter „Moin Xaff! Dennoch bleibt das Henne-Ei-Problem - Mir ist durchaus klar was ein...“
Optionen

z.B. einen DX10-Shader auf einem (Hauszahl) Pentium 4 zu berechnen

das ist ja zb kernpunkt von OpenGL, nämlich dass in hardware nicht verfügbare Optionen in Software berechnet werden können. wie ich grade sehe schreibst du ja genau das.

und naja, intel muss sich nunmal was überlegen. der Prozessormarkt für Consumer Produkte ist eigentlich schon seit jahren ausgereift, ich gehöre zu den wenigen, die im privaten umfeld noch einen 4kerner überhaupt brauchen, und im prinzip reicht ein athlon Xp 2600+ für alle heutigen anwendungen aus(auf netburstP4s will ich hier lieber nicht zu sprechen kommen, das ist ein griff ins klo, und dessen wasser ist verdammt heiss). Worauf ich hinauswill, faktisch gibt es zurzeit keine rechtfertigung mehr einem endkunden einen 1000€ Core2Quad anzudrehen weil dieser noch mehr leistung hat.

Daher muss sich intel neue einnahmequellen suchen. Das ist einerseits Stromsparende CPUs, günstige(auch im betrieb) Business Chipsätze, und eben der Grafikmarkt.
Gamerchipsätze hab ich jetzt mal aussen vorgelassen, habe zwar selbst einen x38(wenn man den als gamerchipsatz bezeichnen will und kann), aber wenn ich mir einen spielerechner hätte basteln wollen, dann hätte ich auf Grafik _und_ chipsatz von NV geachtet.

Bei grafikkarten hat intel faktisch noch eine chance, abgesehen davon dass das ganze intels langzeitziel, einer fusion von Gpu und Cpu entgegenkommt. das ist meiner meinung auch der grund dafür dass man die alten Pentium MMX kerne wieder rausgeholt hat und die nur leicht überarbeitet. das ganze wird sich denk ich am markt wahrscheinlich noch nicht mal durchsetzen, aber es ist medienwirksam

'); DROP TABLE users;--
bei Antwort benachrichtigen