Grafikkarten und Monitore 26.142 Themen, 115.553 Beiträge

News: G300/Fermi mit 3 Milliarden Transistoren

Neuer Nvidia-Grafikbaustein offiziell vorgestellt

Michael Nickles / 2 Antworten / Flachansicht Nickles

Kürzlich musste der Grafikkartenhersteller Nvidia eine Schlappe hinnehmen. Dem Konkurrenten AMD/ATI gelang es, schneller die erste DirectX 11 fähige Grafikkarte rauszubringen (siehe Erste DirectX 11 Grafikkarten verfügbar).

Nvidia konterte mit Schönreden: es gäbe noch keinen Bedarf für DirectX 11. Dabei brodelt die Gerüchteküche schon längst, das Nvidia schlichtweg Probleme mit seinen ersten DirectX 11 Karten hat, die Produktionsausbeute ist angeblich zu gering.

Jetzt kommt Nvidia mit seiner neuen Grafikkarten-Generation allerdings in die Gänge. Der neue Grafikchipsatz G300 (Projektname Fermi) wurde jetzt offiziell vorgestellt. Im Vergleich zum Vorgänger-Chip (1,4 Milliarden Transistoren) wurde die Zahl der Transistoren bei Fermi auf 3 Milliarden gesteigert. Die Anzahl der Shader-Einheiten wurde von 240 auf 512 erhöht.

Schwerpunkt der neuen Chipgeneration ist die Ausnutzung des Grafikkarten-Prozessors (GPU) für beliebige Anwendungen. Bereits seit längerem unterstützen Nvidia-Karten die "Fremdnutzung" der GPU durch Nvidias Programmier-Schnittstelle CUDA.

Bereits Mitte 2007 wurde angekündigt, dass das Rechnen mit Grafikkarten ab 2010 bereits mit "Echtzeit-Compilern" möglich sein soll.

Nvidia wird den neuen Fermi-Chip in Karten unterschiedlicher Leistung- und Preisklassen einsetzen, mit ersten Modellen ist voraussichtlich noch in diesem Jahr zu rechnen. Mit welchem Takt die Karten arbeiten werden und was sie kosten, ist aktuell noch Geheimsache. Die Leistungseck-Daten sind vielversprechend, Antwort werden allerdings erste Benchmark-Orgien liefern.

Michael Nickles meint: Dass Nvidia DirectX 11 nach wie vor aktuell keine Wichtigkeit einräumt, ist recht "komisch". Natürlich werden die neuen Fermi-Karten DirectX unterstützen. Und Tatsache ist, dass DirectX 11 erstmals eine universelle GPU-Schnittstelle zum "Missbrauchen" der Grafikkarten-CPU drinnen hat. Bislang gibt es keine einheitliche Methode, Nvidia und AMD/ATI verwenden unterschiedliche Programmier-Schnittstellen.

Natürlich kämpfen Nvidia und AMD/ATI darum, die besten eigenen Schnittsstellen für Fremdausnutzung der GPU zu schaffen. Bislang sind Anwendungen, die von den jeweiligen Beschleunigungen gebrauch machen, allerdings noch rar. DirectX 11 ist in diesem Zusammenhang also ohne wenn und aber ein spannender Faktor.

bei Antwort benachrichtigen
SoulMaster sea „DX11 Karten sind zur Zeit eigentlich überflüssig wie ein Kropf. Das alte Lied:...“
Optionen

Yap, 100 pro ack!
Mindestens 1 Jahr!

SoulMaster

bei Antwort benachrichtigen