Klatsch, Fakten, News, Betas 5.087 Themen, 27.849 Beiträge

News: Erste Infos zu Larrabee

Spiele mit Raytracing statt Rastergrafik

MadHatter / 11 Antworten / Baumansicht Nickles

Schon einige Zeit geistern kleine Info-Häppchen zu Intels Grafikchip "Larrabee" durchs Internet. Konkrete Fakten gibt es noch nicht, ein paar Dinge stehen allerdings schon fest und bieten Raum für interessante Spekulationen:

So wird der Larrabee-Chip kein gewöhnlicher Grafikchip werden wie von AMD und nvidia gewohnt. Als wohl größter Unterschied wird eine sogenannte „Many-Core“ Architektur zum Einsatz kommen. Man spricht hier je nach Ausbaustufe von 10-100 Kernen pro Chip (andere Quellen berichten von 32 Kernen). Die einzelnen Kerne werden mit großer Wahrscheinlichkeit an die x86-Architektur anknüpfen und hinsichtlich Komplexität und Featureset mit einem Pentium 1 vergleichbar sein. Wie Intel das bewerkstelligen will, ist derzeit noch völlig unklar. Weder ein Pentium 1, noch die x86-Architektur eignen sich für Vektorgrafiken oder Shader-Berechnungen

Sollten diese Infos korrekt sein, so ergibt sich eigentlich nur eine Schlussfolgerung: Larrabee wird alles andere als eine gewöhnliche Grafikkarte die Rastergrafiken ausgibt, es spricht hier vielmehr alles für einen Hardware-Raytracer, eine abgeänderte Form der GPGPU. Dass mit Raytracing beeindruckende Ergebnisse erzielt werden können, ist hinlänglich bekannt, jedoch fehlte es bisher schlicht an der dazu nötigen Rechenpower. Eine derart hoch parallelisierte Recheneinheit sollte genügend Leistung für Echtzeit-Raytracing haben.

Gegen einen reinen Raytracer spricht wiederum die Aussage von Intel-Chef Otellini, der sagte „discrete graphic chips have OpenGL and Direct3D“. Wie Intel mit einer x86-ähnlichen Architektur Raytracing und D3D/OGL realisieren will, ist noch komplett offen – vorausgesetzt, diese Info ist überhaupt korrekt.

Auch wird Intel, sollte es sich tatsächlich um einen Hardware-Raytracer handeln, auf massive Probleme stoßen:
Erstens hat man dann zwar einen hochpotenten Chip, der aber völlig nutzlos ist, weil es einfach keine Engines und keine Spiele gibt, die Raytracing verwenden. Selbst wenn man heute anfängt, zu programmieren – man wäre bereits jetzt mindestens zwei Jahre zu spät dran.

Zweitens ist reines Raytracing auch nicht der Stein der Weisen. Es gibt genügend Dinge, in denen die klassische Rastergrafik weitaus einfacher und schneller ist. Eine Engine, bzw, ein Chip, die/der Raytracing und Rastergrafik kombiniert, wäre hier wohl (wenigstens vorübergehend) die wesentlich schlauere Alternative. Hier kommen wir aber wieder bei dem Problem von oben an.

Drittens gibt es wohl nichts komplexeres als einen Grafiktreiber. Wenn man sich die (qualitativ höchstens durchschnittlichen) Intel-Treiber für die hauseigenen Grafikchips ansieht, so liegt die Vermutung nahe, dass das einfach nichts werden kann: einen Treiber für einen noch nie dagewesenen Chip, für eine neue Architektur, für neue Spiele-Engines zu schreiben, scheint beinahe unmöglich. Führt man sich zudem noch vor Augen, dass gut ein Drittel der Belegschaft von nvidia nur für das Schreiben der Treiber bezahlt wird (an die seit Jahren einfach nur „drangebastelt“ wird), so erscheint dieses Dilemma in einem noch dunkleren Licht.

Zweifelsohne hat Intel das nötige Know-How um diesen Chip zu bauen, wie aber die dazu nötigen Rahmenbedingungen geschaffen werden sollen, steht derzeit aber noch völlig in den Sternen. Auch was dann schlussendlich wirklich dabei rauskommt, weiß derzeit noch niemand.
Konkret lässt sich lediglich sagen: Ende dieses Jahres will Intel erste Samples des Chips haben, mit der Produktion und dem Marktstart ist aber nicht vor Anfang 2010 zu rechnen. Ob Intel bis dahin die genannten Probleme in den Griff kriegt?

Quellen:

http://www.beyond3d.com/content/news/565
http://www.heise.de/ct/08/15/022/
http://hardware.slashdot.org/hardware/08/07/07/1945203.shtml
http://www.xbitlabs.com/news/video/display/20080305171043_Intel_to_Be_More_Active_in_the_Graphics_Market.html

Hinweis: Vielen Dank an MadHatter für das Verfassen der News. Diese News stammt von einem Nickles.de-Teilnehmer. Die Nickles.de Redaktion übernimmt keine Verantwortung für den Inhalt und die Richtigkeit dieser News.

Bei Nickles.de kann übrigens jeder mitmachen und News schreiben. Dazu wird einfach in einem Forum ein neues Thema begonnen und im Editor die Option "News" gewählt.

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
Scotty7 MadHatter „Spiele mit Raytracing statt Rastergrafik“
Optionen

Mal abgesehen davon hab ich gehört das die ATI HD48x0 Serie bereits in Echtzeit Raytracen kann.

gens inculta nimis vehitur crepitante colossa.
bei Antwort benachrichtigen
Synthetic_codes Scotty7 „Mal abgesehen davon hab ich gehört das die ATI HD48x0 Serie bereits in Echtzeit...“
Optionen

hmm in der aktuellen ct steht dass es sich wohl um 64 Pentium MMX Baukerne in "etwas" höhergetakteter version in 45nm Baugrösse handeln soll. die werden zusätzlich etwas aufgepimpt.

Desweiteren könnte ich mir durchaus vorstellen das Intel die dazugehörigen spiele bereits in auftrag gegeben hat. Auch treiber muss intel wohl mit dazu liefern.

Alles in allem gehe ich mal davon aus, dass Otellini sich dabei schon etwas gedacht haben wird. Dass er ein guter geschäftsmann ist, ist ja nun keine neuigkeit

'); DROP TABLE users;--
bei Antwort benachrichtigen
xafford MadHatter „Spiele mit Raytracing statt Rastergrafik“
Optionen

MadHatter, Du vergisst 2 Sachen, ich fange mal mit der letzten an, weil sie am schnellsten abgehandelt ist:

Drittens gibt es wohl nichts komplexeres als einen Grafiktreiber. Wenn man sich die (qualitativ höchstens durchschnittlichen) Intel-Treiber für die hauseigenen Grafikchips ansieht, so liegt die Vermutung nahe, dass das einfach nichts werden kann: einen Treiber für einen noch nie dagewesenen Chip, für eine neue Architektur, für neue Spiele-Engines zu schreiben, scheint beinahe unmöglich.

Intel baut nicht nur Chips, Intel hat eigene Softwarelabore mit mehr als fähigen Leuten und die entwickeln hauptsächlich: Compiler.

Und ein Compiler ist genau das, was aus dem Dilemma hilft, denn ein Compiler analysiert Code und portiert ihn in die Sprache der Hardware. Wenn Du Dir jetzt überlegst, dass die Engines verschiedener Anbieter nicht direkt auf der Hardware aufsetzen, sondern auf entweder der DirectX, oder der OpenGL Ebene (wenn auch mit jeweiligen Optimierungen für verschiene Grafikchips), so könnte dies ein Ansatzpunkt für einen "Grafik-Compiler" sein, der die Befehle der jeweiligen API (DirectX, OpenGL) in Raytracing-Code neu kompiliert. Es müssten also keine neuen Engines programmiert werden als erster Schritt, sie müssten nur beim ersten Start einmal übersetzt werden. Dies dürfte dann natürlich mit Performanceverlusten einger gehen, da müsste sich dann beweisen wie effektiv die Hardware ist und wie Effektiv die Raytracing-Algorithmen sind. Zu letztem Punkt hat allerdings die Universität Saarbrücken auf wesentlich schmalbrüstigerer Hardware bewiesen, dass Raytracing sehr effektiv arbeiten kann.

Der zweite Punkt, den Du vernachlässigst bezieht sich darauf:

Die einzelnen Kerne werden mit großer Wahrscheinlichkeit an die x86-Architektur anknüpfen und hinsichtlich Komplexität und Featureset mit einem Pentium 1 vergleichbar sein. Wie Intel das bewerkstelligen will, ist derzeit noch völlig unklar. Weder ein Pentium 1, noch die x86-Architektur eignen sich für Vektorgrafiken oder Shader-Berechnungen.

Dies stimmt so pauschal nicht, denn x86 ist eine Multi-Purpose-Architektur. Was sie kann bestimmt die Software. Eigentlich ist eher das Gegenteil der Fall... GPUs sind von ihrem Funktionsumfang stark eingeschränkt. Man kann eine x86 CPU mit der richtigen Ansteuerung auch beibringen DirectX oder OpenGL zu unterstützen, wie effektiv das dann wird, siehe oben.

Alles in Allem glaube ich aber persönlich nicht, dass es wirklich eine Hardware auf Basis eines Pentium 1 sein wird, es macht in meinen Augen einfach wenig Sinn. Ich vermute eher, dass die Cores dem Atom ähneln werden, denn damit hat man bereits eine effektive Architektur für diese Art Aufgaben. Was den Atom als CPU bremst, die In-Order Architektur, ist im Grafikbereich keine so große Bremse und wenn man sieht was Intel für den Atom plant (multiparallele Multicores), dann passt dieser Ansatz wesentlich besser für Larrabee, als den Pentium 1 wieder auszumotten.

Pauschalurteile sind immer falsch!!!
bei Antwort benachrichtigen
Synthetic_codes xafford „MadHatter, Du vergisst 2 Sachen, ich fange mal mit der letzten an, weil sie am...“
Optionen

ja aber eine GPU kann auch als rechner eingesetzt werden. ihre hardware ist aber primär auf schnelle und hochwertige näherungsverfahren zur grafikberechnung ausgelegt. einen taschenrechner würdest du ja auch nicht zur textverarbeitung nutzen

'); DROP TABLE users;--
bei Antwort benachrichtigen
MadHatter xafford „MadHatter, Du vergisst 2 Sachen, ich fange mal mit der letzten an, weil sie am...“
Optionen

Moin Xaff!

Dennoch bleibt das Henne-Ei-Problem ;-)

Mir ist durchaus klar was ein Compiler macht, trotzdem (und da glaube ich, wirst du mir Recht geben), einen Sprung ohne Absatz vom Rasterizer zum reinen Raytracing werden wir trotzdem nicht erleben.
Natürlich lässt sich Raytracing auch auf einem Pentium berechnen, machbar ist sich auch der umgekehrte Weg, also z.B. einen DX10-Shader auf einem (Hauszahl) Pentium 4 zu berechnen, dann allerdings mit starken Abstrichen in punkto Leistung.

Dedizierte Hardware ist immer schneller in der Anwendung, für der sie geschaffen wurde, auch sind die Compiler dort wesentlich weniger komplex. Da kann man noch so tricksen, man arbeitet immer entgegen der Effizienz. Mit übertakteten Core 2 Duos ist man heute soweit, den 3DMark2001 im Software-OGL-Modus laufen zu lassen und dabei die Werte zu erreichen, die eine GeForce TI vor x Jahren hatte - okay, das ist jetzt vielleicht ein blödes Beispiel ;-)

Die von Intel offensichtlich anvisierte "Dampfhammer-Methode" spekuliert vermutlich darauf: man stellt genügend Rechenleistung für RT-RT zur Verfügung, und hofft dabei, dass diese Rechenleistung auch für die gewöhnlichen Rasterizer ausreicht. Ob dieses Konzept aber aufgeht?

Interessant wäre zu erfahren, wie sich in punkto Raytracing eine moderne GPU gegen eine CPU schlägt, die hochparallelisierten Grafikchips wären [spekulation] meiner Einschätzung nach deutlich im Vorteil. Dass das durchaus geht, beweist nvidia mit CUDA (jetzt nicht in punkto RT).

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
Synthetic_codes MadHatter „Moin Xaff! Dennoch bleibt das Henne-Ei-Problem - Mir ist durchaus klar was ein...“
Optionen

z.B. einen DX10-Shader auf einem (Hauszahl) Pentium 4 zu berechnen

das ist ja zb kernpunkt von OpenGL, nämlich dass in hardware nicht verfügbare Optionen in Software berechnet werden können. wie ich grade sehe schreibst du ja genau das.

und naja, intel muss sich nunmal was überlegen. der Prozessormarkt für Consumer Produkte ist eigentlich schon seit jahren ausgereift, ich gehöre zu den wenigen, die im privaten umfeld noch einen 4kerner überhaupt brauchen, und im prinzip reicht ein athlon Xp 2600+ für alle heutigen anwendungen aus(auf netburstP4s will ich hier lieber nicht zu sprechen kommen, das ist ein griff ins klo, und dessen wasser ist verdammt heiss). Worauf ich hinauswill, faktisch gibt es zurzeit keine rechtfertigung mehr einem endkunden einen 1000€ Core2Quad anzudrehen weil dieser noch mehr leistung hat.

Daher muss sich intel neue einnahmequellen suchen. Das ist einerseits Stromsparende CPUs, günstige(auch im betrieb) Business Chipsätze, und eben der Grafikmarkt.
Gamerchipsätze hab ich jetzt mal aussen vorgelassen, habe zwar selbst einen x38(wenn man den als gamerchipsatz bezeichnen will und kann), aber wenn ich mir einen spielerechner hätte basteln wollen, dann hätte ich auf Grafik _und_ chipsatz von NV geachtet.

Bei grafikkarten hat intel faktisch noch eine chance, abgesehen davon dass das ganze intels langzeitziel, einer fusion von Gpu und Cpu entgegenkommt. das ist meiner meinung auch der grund dafür dass man die alten Pentium MMX kerne wieder rausgeholt hat und die nur leicht überarbeitet. das ganze wird sich denk ich am markt wahrscheinlich noch nicht mal durchsetzen, aber es ist medienwirksam

'); DROP TABLE users;--
bei Antwort benachrichtigen
ThaQuanwyn Synthetic_codes „z.B. einen DX10-Shader auf einem Hauszahl Pentium 4 zu berechnen das ist ja zb...“
Optionen

... und genau da liegt die Krux!

Intel hat sicher das nötige Know-How, eine solche "Grafikkarte" zu bauen - keine Frage - aber gerade die Umsetzung der Treiberproblematik war nie die Stärke von Intel und wird es auch in naher Zukunft nicht werden!

Larabee wird, meiner bescheidenen Meinung nach, im Grafikkartenbereich eine Todgeburt werden, und es wäre nicht das erste Mal, dass sich Intel in diesem Segment übernommen hätte ...

bei Antwort benachrichtigen
Synthetic_codes ThaQuanwyn „... und genau da liegt die Krux! Intel hat sicher das nötige Know-How, eine...“
Optionen

ja meine meinung war dazu eigentlich eher, dass Larrabee ein Proof Of Concept Darstellen wird. Es geht darum in die Medien damit zu kommen, nicht um die paar exemplare die man an highendfreaks und universitäten verkaufen kann.

'); DROP TABLE users;--
bei Antwort benachrichtigen
Prosseco Synthetic_codes „ja meine meinung war dazu eigentlich eher, dass Larrabee ein Proof Of Concept...“
Optionen

Eine kurze frage.

Eine Erfindung des Jahres 1969/1980, damit es dann im Jahre 2008 Aktuell ist.

Alles ist Retro, nur die Freaks oder Gamers, die es jetzt so toll finden, waren noch in die Pampers oder Spielten Atari.

Ahh zu meine Frage:

Was ist POV-Ray?

http://www.irtc.org/ftp/pub/stills/2006-10-31/wp_ghost.jpg

*g*

Gruss
Sascha

P.S. Ja ich weiss, ich bin zu Alt fuers Spielen und angeblich alles Moderne.

Das ist keine Signatur. Sondern ich putz hier nur
bei Antwort benachrichtigen
MadHatter Prosseco „Eine kurze frage. Eine Erfindung des Jahres 1969/1980, damit es dann im Jahre...“
Optionen

Das neue daran, lieber Sascha, ist dieser Faktor: berechnet in Echtzeit auf dedizierter Hardware.

Wobei es ja noch alles andere als sicher ist, dass Larrabee wirklich das wird, worüber hier spekuliert wird.

---Neuer Bildschirm gefällig?Hier Loch bohren:X
bei Antwort benachrichtigen
Prosseco MadHatter „Das neue daran, lieber Sascha, ist dieser Faktor: berechnet in Echtzeit auf...“
Optionen

Hallo Madhatter,

verstehe ich schon. Nur ich bin halt so ein Spiel Laie.

Aber ich gebe dir ein Paar Woerter, hoffentlich sagen dir was:

Codename : Cantiga
Fuer Laptops

Codename: Eaglelake
fuer Desktops

Intel hat Havok aufgekauft.

Havok Hydracore

DMIP Tasks

So es tut mir leid wenn ich nicht mehr schreibe, aber alles ins Englische zu uebersetzen
waere riesen lang, ich beschaeftige mich nicht so mit die ganze Spiel Industrie.

Weil fuer mich ist es immer noch abzocke, aber vielleicht liege ich auch falsch.
Aber da du mehr bescheid weiss, habe ich es ind diese Form gebracht.

Hier ein paar Links:

http://softwarecommunity.intel.com/videos/home.aspx?fn=1398

http://softwarecommunity.intel.com/articles/eng/1446.htm

Gruesse
Sascha


Das ist keine Signatur. Sondern ich putz hier nur
bei Antwort benachrichtigen