ASUS V8200 Deluxe | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
NVIDIA's GeForce 3 GPU
Als NVIDIA im Februar 2001 ihren neuen Chip vorstellten, wäre
er fast ein Rohrkrepieren geworden, denn es dauerte noch Monate bis endlich
die letzten Bugs und Probleme beseitigt waren und vollständig funktionierende
Treiber zur Verfügung standen. Der GeForce 3 stellt mit seinen 57
Millionen verbauten Transistoren den zur Zeit am weitesten entwickelten
Grafikchip für den Home-Consumer Markt dar (Microsoft's X-Box und
ATI's Radeon 8500 sind noch nicht erhältich), obwohl man natürlich
an der Transistorenanzahl weder Leistungsfähigkeit noch Funktionsvielfalt
festmachen kann. Man könnte z.B. mit Embedded Memory (eingebettetem
Speicher im Chip) die Transistorenanzahl drastisch erhöhen. Genausowenig
kann man mit den von NVIDIA angegebenen 800 Milliarden Operation pro Sekunde
etwas anfangen. Letztendlich müsste man schon eine Tabelle haben,
wo detailiert alle Operationen mit den jeweiligen Taktzyklen nachzulesen
sind. Dies aber nur am Rande, um NVIDIA's Marketingabteilung ein wenig
Wind aus den Segeln zu nehmene. Wenigstens hat NVIDIA aus der Vergangenheit
gelernt und gibt nun keine Zahlen mehr zum Durchsatz der Dreiecke bekannt,
weder auf der Homepage noch in irgendwelchen Dokumenten. Bei den GeForce
3 Ti Karten handelt es sich um leicht höher und niedriger getaktete
Modelle, welche ab Mitte Oktober 2001 zum Kauf angeboten werden sollen.
Technische Daten im Überblick:
So wird in der Tabelle gerechnet:
Wie man sieht gibt es also einige Neuigkeiten, auf die ich gleich eingehen werde. Auffällige ist, dass der GeForce 3 nur mit 200 Mhz läuft, obwohl der Vorgänger hier mit dem GeForce 2 ULTRA bereits auf 250 Mhz kommt. Dies ist recht ungewöhnlich, da NVIDIA mit einer neuen Chipgeneration bisher immer in neue Mhz-Regionen vorgestoßen ist. Über die Gründe kann ich nur spekulieren - fehlende Konkurenz und ein recht schwieriger Fertigungsprozess könnten verantwortlich sein.
nfinite FX Engine (Vertex & Pixel Shader)
Hinter diesem wunderschönen Marketingbegriff verbirgt sich eine neue Form der T&L Engine sowie eine erweiterte Textureeinheit. T&L war bis DirectX 7 immer fest - sprich Vertexdaten gehen durch die T&L Engine und werden dort transformiert und evtl. beleuchtet, jedoch hat der Programmierer danach keine (jedenfalls keine vernünftige) Einflußmöglichkeit mehr auf die Vertexdaten. Mit einer programmierbaren T&L Einheit ist dieses Limit beseitigt. Jetzt kann man die Vertexdaten mittels kleiner Vertexprogramme verändern, womit Bewegungsabläufe oder ähnliches vom GPU berechnet werden können. Die DirectX 8 Bezeichnung Vertex Shader ist allerdings etwas irreführend, denn bei der programmierbaren T&L Einheit wird nichts schattiert. Vertex Prozessor kommt der Aufgabe schon näher.
Der Pixel Shader kümmert sich hingegen nicht um Vertexdaten sondern
um die Pixel selbst. Mit ihnen können verschiedene Operationen pro
Pixel ausgeführt werden, wie z.B. Bump-Mapping, Environment-Mapping
und viele weiter - auch wesentlich individuellere Effekte als vorher jemals
möglich. Wie unten zu sehen ist, wurde die Anzahl von Texturen von
2 auf 4 erhöht und zusätzlich sind nun 8 Textureoperation, statt
2 möglich. Gesteuert wird das ganze und dies ist die wirkliche Neuerung
über eine Pixel Shader Programmiersprache, zumindest bei DirectX 8.
Mit weiteren Versionen werden die Fähigkeiten der Pixel Shader weiter
steigen. Die aktuelle GeForce 3 (NV20) nutzt die Pixel Shader bis zur Version
1.3 aus. Die Version 1.4 wird aktuell nur von ATI's Radeon 8500 unterstützt.
Weitere Details dazu gibts
hier
.
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||