15.06.2002

Interviews zu NVIDIA's Cg Sprache
The Register haben ein Interview mit Andrew Richards, dem Gründer von Codeplay, welcher sich eher kritisch zu NVIDIA's Cg äußert. Positiver sieht dies allerdings NVIDIA's David Kirk.

ATi und NVIDIA gemeinsam auf der GDC Europe
Auf der GDC Europe werden ATi und NVIDIA gemeinsam über die Verwendung der DirectX 9 Shader sprechen. Vielleicht hat man auf diesem Sektor wirklich sinnvoll zusammengearbeitet...

 14.06.2002

3D-Mark 2001 SE Update
MadOnion haben ein Patch veröffentlich, was Probleme mit DirectX 9 und neuen Grafikkarten behebt.
  • MS DirectX 9.0 support
  • AGP 3.0 (AGP 8x) support
  • Support for the latest hardware (such as SiS Xabre)
  • Support for graphics cards with pixel shader support but no vertex shader support
  • All other identified issues have been fixed

NVIDIA's Cg veröffentlicht
NVIDIA hat ihr Cg Toolkit veröffentlicht. Dabei handelt es sich um eine Shader Sprache, welche Pixel und Vertex Shader Code für OpenGL (natürlich nur NVIDIA Extensionen) und DirectX 8 / 9 erzeugt. Der DirectX 8 / 9 Code läuft auf jeder Karten welche die Pixel Shader bietet, der OpenGL Code nur auf NVIDIA Karten. Somit ist Cg keine Konkurrenz für OpenGL 2.0, sondern lediglich ein Aufsatz, elche die Entwicklung von Shader Code beschleunigt.

SiS Xabre 400 Review
Ein vollständiges Xabre 400 Review haben Digit-Life online. Die Darstellungsqualität der Xabre liegt jedoch unter den Niveau einer GeForce 3/4.

 13.06.2002

Neues Treiberpacket von ATi
ATi nennet ihr neues Treiberpacket "CATALYST" - hinter einem neuen Treibermenü, mit mehr Einstellungsmöglichkeiten, verbergen sich ATi's unified Grafiktreiber, das Multimedia Center, Hydravision und für die AIW Karten die Remote Wonder Software. Zusätzlich gibt es ein Diagnoseprogramm namens Smartgart. Die Treiber gibts hier.

Matrox Parhelia 512 Benchmarks
Hier gibt es ein Benchmarks mit einer beta Parhelia 512 Karte.

 12.06.2002

NVIDIA's Cg Sprache
Was lange Zeit als "GLIDE" für NVIDIA's NV30 durch das Internet geisterte ist durch eine Fehler von IGN nun frühzeitig raus. Cg ist eine höhere Programmiersprache zur Programmierung der Grafikkarte.

Nvidia Cg Revealed
The graphics maker announces big news in the world of software.
June 10, 2002 - Color me surprised. NVIDIA's next announcement isn't for their next piece of high-tech hardware; instead the company's announcing, in the words of VP of Marketing Dan Vivoli, "a major software breakthrough for the graphics industry." The new software is called Cg, or C for graphics. This is all part of NVIDIA's plan to put reality out of business by rendering film quality details in real-time. While progress is being made, Dan still sees the convergence of the two art forms in terms of realism to be five to ten years away. Cg is NVIDIA's attempt to close the gap.
Dan describes Cg as "a high level graphics programming language which changes the paradigm for programming these real time graphics chips." The paradigm being changed of course is the current assembly mode process of writing code for graphics. In just a few lines Cg can accomplish more and more intuitively than many more times lines of assembly code.
The difference comes in the abstraction of the code to a specific GPU or API. Currently assembly language code is specific to distinct computer architecture. Cg's compiler performs all of this "heavy lifting" itself by abstracting the code and optimizing and tuning it to a particular GPU. And it does it all in a much simpler language. Admittedly, it's still fairly cryptic to the novice, but it's much more convenient for programmers.
This not only means that programmers can do more effects in the same amount of time; it also implies that programmers can attempt more difficult or realistic effects. "If you're really good at it," Dan explains, "then you can be even better at it because you're spending less time with the tedium of doing the assembly language programming and you get to spend more time doing the creative part with the higher level language."
And that's the point, as Dan points out. "Game developers don't want to be computer architects; they really want to be story-tellers and artists." But the providers of game technology have forced game makers to learn complicated codes in order to work with the tools. This is why Dan sees this as a completely natural step for NVIDIA. It even has a precedent in the evolution of NVIDIA's own driver technology. "It's about managing the architecture and the hardware," says Dan, which is "a natural thing for the hardware guy to do."
The software is compatible with almost anything. Since the Cg compiler supports the same language used by Direct X's compiler, compatibility won't be an issue. Moreover, the output to Direct X or OpenGL shaders makes Cg friendlier to other platforms like the Xbox, Mac or Linux.


Bleibt natürlich die Frage offen, was der Compiler wirklich erzeugt. Erzeugt er kompletten DirectX 8 / 9 Code oder lediglich Vertex und Pixel Shader Code. Ob Cg eine Alternative zu OpenGL 2.0 sein wird / sein soll, bleibt abzuwarten, da dort ebenfalls Vertex und Pixel Shader mittels C-artiger Sprache programmiert werden können. Ob andere Hersteller freien Zugang zu Cg haben werden bleibt ebenso offen, wäre aber für die Akzeptanz am Markt wünschenswert.

ATi's RV250
Hier ein paar Bilder von ATi's RV250.

ATi's R300
Hier ist ein gescannter Artikel einer Zeitschrift, in dem kurz auf die Leistung des R300 eingegangen wird. 15-20 % schneller unter 3D-Mark 2001 SE als eine NVIDIA GeForce 4 Ti 4600 - jedoch bei 1024x768, da limitiert die CPU wohl wesentlich mehr als die Grafikkarte, ausserdem sind die Treiber sicher noch in einem frühen Stadium.

 11.06.2002

John Carmack Interview bei Beyond3D
Beyond3D haben ein sehr interessantes Interview mit JC zur Doom III Technologie geführt.

ATi's R300 -> Radeon 10000 / RV250 -> Radeon 9000 ?
The Inquirer haben angeblich ATi's R300 basierende FireGL Karte auf der Computex 2002 gesichtet. Weiter wird in dem Artikel von der Radeon 10000 gesprochen, as eiegntlcih ATi's Namenskonventionen wiedersprechen würde, denn der Radeon 8xxx wurde wegen DirectX 8 so bezeichnet (Radeon 7xxx -> DirectX 7). Somit wäre Radeon 9000 (DirectX 9) logicher.

OpenML - mit breiter Herstellerunterstützung
Bei OpenML handelt es sich um den Versuch, eine plattformübergreifende Multimedia API (capturing, transporting, processing, displaying, and synchronizing digital media (2D and 3D graphics, audio and video processing, I/O, and networking), welche von folgenden Herstellern unterstützt wird:
  • 3Dlabs Inc.
  • ATI Technologies Inc.
  • Discreet, a division of Autodesk, Inc.
  • Evans & Sutherland Computer Corporation
  • Intel Corporation
  • NVIDIA Corporation Silicon Graphics, Inc.
  • Sun Microsystems, Inc.
OpenML

 10.06.2002

Professionelle OpenGL-Beschleuniger unter LightWave 7
Digit-Life haben verschiedene 3D-Beschleuniger unter der Verwendung von LightWave 7 getestet.

 09.06.2002

3D-Analyze 1.4 Beta
Ich habe die 1.4'er Beta online gestellt. Sie enthält einige neue Features, welche speziell Karten mit mangelnden DX8 Features (Pixel Shader, Cube Mapping, Bump Mapping, Environment Mapping) helfen könnte, DX8 Games und Anwendungen (z.B. 3D-Mark 2001 SE) doch zu bewältigen.

Talon Graphics
Talon Graphics ist ein Team aus 4 Leuten, welche angeblich eine neue Grafikkarte bauen wollen. Die Karte soll sich "Apocalypse" nennen und mittels SLI (welches von NVIDIA lizensiert werden muss) in 4 Versionen erscheinen soll. Ich halte das Projekt für kaum realisierbar, mit nur 4 Leuten. Das fängt beim Design an und geht mit den Treibern weiter, wenn man sich anschaut, wieviele Leute bei NVIDIA oder ATI an solchen "Details" arbeiten.

Here is what Ryan Warner has to say :
The Apocalypse line of graphics cards will be very impressive. We actually had to flip the card to where the processors are facing up. This is because of the size of the heatsink & fan combinations. We know graphics cards are not made like this because of heat problems between the card, and the CPU, but we are have a heatsink & fan design that will desperse the heat away from the CPU of most motherboards. The fan will actually be a dual fan (like on the Russian Tu-95 Bear Bomber). The clocks for the Apocalypse cards will be nearly double what the GeForce 4's are. With our new memory architecture you can see at the most 3 - 4 times the fill-rate of a GeForce 4.
The Anti-Aliasing for the Apocalypse 1500 will be at 16x (using the Selestec[tm], a new form of FSAA). Also, the Anisotropic Filtering is going to have the option of at least 128-tap. The blurring issue will not be a problem. Take 3DLabs 16x Anti-Aliasing on the Wildcat III for example, but without blurring.
Transform and Lighting will definetely be implemented in hardware, and so will Pixel and Vertex shaders.
3dfx T-Buffer is not dead. The one addition to the die is a space for a form of the 3dfx T-Buffer (TG-Buffer). Yes, we at Talon Graphics are fans of 3dfx. The first video card any of us ever owned was a 3dfx product.
Also on our list is surround-gaming features up to 5 monitors for a true surround-gaming experience.
As for the size of the card. The Apocalypse 1500 does have four processors. The length of the card will not be 30cm like the Voodoo 5 6000. The Apocalypse 1500 will be wide though. Our design for the card is different, and should not be any longer than a Voodoo 5 5500. The Apocalypse 1000 will be no longer than a GeForce 4. The Apocalypse 500 will be around the size of a Radeon 8500.
Here's some more specs:
Apocalypse 1500 - 4 chip SLI 512MB RAM (16x A-A)
Apocalypse 1000 - 2 chip SLI 256MB RAM (12x A-A)
Apocalypse 500 - 1 chip 128MB RAM (8x A-A)
Chip design is nearly complete, and board design is in full swing. I will be finishing the chip design this month (hopefully), and helping Josh finish the board design over the next 3 or 4 months. Than, it's on to silicon. Produce the drivers, and put the card into production. We're working hard on this project. I do want to stress that no other video card will be designed like this one, and look like this one.
We are hoping to have a design ready for production in one year, or less.
There's only one major issue that needs to be taken care of. That is getting the rights to use SLI from nVIDIA. Otherwise, we'll run into lawsuits, and so on. We want SLI because we believe that it is very effective, and our plan on how to use the technology will seriously increase the performance of the chipset. The SLI technique we're going to use can avoid buying a patent from nVIDIA. That is not going to be a problem either. Our implementation, we believe, will increase performance on older, current, and future programs.
The Talon Graphics Team :
Ryan Warner - Chip and Board Design (Founder)
Josh Anderson - Chip and Board Design (Co-Founder)
Seth Gilpin - Cooling Design
Shawn Middleton - Drivers

Open Source ATi Radeon 8500 3D Linux-Treiber
Wie in der DRI-Mailingliste zu lesen war, sponsort The Weather Channel die Entwicklung eines 3D Treibers für ATi's Radeon 8500. Momentan sind von ATi ja offiziell nur Linux-Treiber für die FirgeGL 8700 / 8800 Karten zu bekommen, welche jedoch auch auf der Radeon 8500 laufen. Der DRI-Teil wird von ATi's FireGL Team beigesteuert. Wann jedoch Pixel und Vertex Shader Extensions eingebaut werden ist momentan noch unklar. Erste Versionen der Treiber sollen im vierten Quartal verfügbar sein.

"The Weather Channel is funding TG to develop an open source 3D DRI
driver for the ATI Radeon 8500 graphics card. The driver will be
released to the XFree86 Project around Q4 of 2002, to be distributed to
the public in future versions of the XFree86 X Server."


> That is great news. I was about to inquire about those recently released
> FireGL drivers that are said to work with the 8500. Is the developement of
> those drivers related in any way to TG?


AFAIK, the drivers themselves utilize the DRI and were written by the FireGL group at ATI.

> As far as Doom3 Linux goes .. I think there's still a long way before Doom3
> can run with all features enabled on an open source ATI driver. As you are
> aware, Doom3 makes heavy use of pixel shaders and other advanced features.
> Don't ask about ETAs or what the plans for a 'technology test' of Doom3
> Linux are though, cause I have no idea .. all I can say is that Id would
> help out driver developement / testing / performance feedback on Linux as
> much as possible.


Correct, you won't see HW pixel shaders in this open source driver.
Perhaps someone can comment on HW pixel shader support in the FireGL binary only driver

 08.06.2002

ATi's RV250 und R300 Spezifikationen
3DCenter haben einen kurzen Artikel online, welcher sich mit den technischen Daten der beiden kommenden ATi GPU's beschäftigt.

Matrox Parhelia 512 - "Best Hardware of E3"
Hier gibts die Pressemitteilung.

NVIDIA beim 0,13µ Fertigungsprozess im Vorteil?
Laut diesem Artikel, wird NVIDIA vor der Konkurrenz ihren 0,13µ GPU vorstellen. Damit könnte sich andeuten, dass ATi's R300 anfangs in 0,15µ gefertigt wird. Dies wiederum hätte zur Folge, dass der R300 mit ca. 220 - 275 Mhz laufen würde, ähnlich wie Matrox Parhelia 512. Dies muss aber kein Nachteil sein. Ähnlich wie bei CPU's (Intel / AMD) kommt es auch bei GPU's auf die Leistung pro Mhz an, was gerade beim Pixel und Vertex Shader wichtig ist. Je komplexer diese Einheiten werden, umso schwieriger wird es, hier ein effizientes Design zu finden. Das Hauptproblem heutiger GPU's ist auch nicht der GPU-Takt, sondern vielmehr die vorhandene Speicherbandbreite. Die Vertex Shader haben bereits mehr als genug Datendurchsatz. Auch die Pixel Shader hängen momentan mehr von der Speicherbandbreite ab, als vom reinen Takt.

 07.06.2002

NVIDIA und anisotropische Filter Leistung
The Inquirer haben einen Artikel online, in dem NVIDIA zum Thema "schlechte Leistung beim anisotropischen Filtern" Stellung nimmt und Besserung verspricht.

"We got a nice explanation from nVidia here in Taipei, that Anisotropic performance in 28.32 and previous Geforce 4 drivers where not as fast as you might expect because the Nvidia driver team focused on FSAA performance first, since they accepted that as a priority. After that they started to work on improving Anisotrotropic performance, I'm told."

Neue PowerVR Demos und ein neuer Benchmark
PowerVR haben neue Demos und einen Stencil-Shadow Benchmark veröffentlicht, welcher gerade im Hinblick auf Doom III interessant sein dürfte.

Was bringt der neue OprnGL Treiber für ATi's Radeon 8500 ?
3DNow Galaxy haben ATi's neuen OpenGL Treiber getestet.

OT: Clawhammer Benchmarks
Hier die ersten Clawhammer Resultate, welche recht vielversprechend aussehen, von tecChannel:
Quake III Arena 1.17

Clawhammer 800 PC333 2.5-3-3 183 fps
Athlon MP 800 PC333 2.5-3-3 130 fps
Athlon MP 800 PC333 2.5-3-3 133 fps
Athlon MP 800 PC333 2.0-2-2 135 fps
Athlon MP 1667 PC333 2.5-3-3 210 fps
Pentium 4 800 PC800-45 111 fps
Pentium 4 1600 PC800-45 182 fps

OT: GTA3 Ruckelalarm?
Wiedereinmal verärgert ein übereifriger Kopierschutz (und/oder schlechte bzw. fehlende Tests auf unterschiedlichen Hardwarekonfigurationen) den Spielspaß. Laut dem Test in der aktuellen Gamestar soll ein No-CD Patch grobe Probleme beheben. Laut den Lizenzvereinbarungen darf man ein No-CD Patch nach 4 Wochen Frist einsetzen, wenn man Take 2 auf die Probleme aufmerksam gemacht hat. Take 2 arbeitet bereits an einem Patch. Im Gamestar Test wird die Radeon 8500 durchgehend als "nicht möglich, bzw. nicht speilbar" eingestuft. Da andere Spiele auf ATi's Radeon 8500 diese Probleme nicht haben, liegt der Fehler hier eindeutig bei Take 2.

 06.06.2002

NVIDIA's NV30 angeblich ca. 120 Mio. Transistoren
Laut einem Artikel im Wired Magazine soll NVIDIA's neue NV30 GPU aus ca. 120 Mio. Transitoren bestehenen.

NVIDIA-U Workshop
Vom 18. - 20. Juli 2002 wird in San Antonio (Texas) NVIDIA's "NVIDIA-U" Workshop stattfinden. Hier eine Übersicht der interessanten Themen:
  • Volume Rendering
  • Non-Photorealistic Rendering
  • Shadows, Transparency and Visibility
  • High Dynamic Range Rendering
  • GPU-Accelerated Global Illumination
  • Character Animation
  • Non-Graphics Use Of GPUs

S3 SavageXP Review
VIAARENA haben ein Review des SavageXP veröffentlicht. Dort muss er gegen NVIDIA's GeForce2 MX 400 und ATi's Radeon VE(7000) antreten, welche er auch deutlich schlägt, wobei er allerdings auch über die doppelte Speicherbandbreite verfügt. Hier noch ein paar Daten des SavageXP, welcher von VIA auch als Zoetrope verkauft wird:
  • Memory interface 64/128 bit DDR SDRAM
  • Upto 64 MB external videomemory support, upto 32 MB embedded videomemory
  • Core frequency upto 166 MHz, videomemory û upto 366 (183 DDR) MHz
  • Two pixel pipelines with two TMUs each
  • Possibility to integrate two pixel pipelines into one with four texture modules
  • Support of bilinear and trilinear filtration
  • S3TC/DXTC texture compression support
  • Full screen anti-aliasing support with programmed filtering templates
  • Edge anti-aliasing support
  • T&L hardware unit
  • RAMDAC frequency 350 MHz
  • DVI support, embedded NTSC/PAL TV-encoder
  • Two-monitor configurations support with any devices combinations
  • Simultaneous scaling support and two videostreams output
  • PowerWise power saving technology
  • AGP 2x/4x support
  • 166 Mhz GPU speed

3Dlabs P10 Technologie Preview
Beyond3D haben ein Preview von 3Dlabs P10 VPU veröffentlicht, welches recht detailiert zur Sache geht.

VIA und ATi wollen AGP 8x in den mainstream Markt drücken
VIA und ATi arbeiten zusammen, um den AGP 8x Standard auch im mainstream Markt anzusiedeln.

ATi's Radeon Karten zu langsam für GTA 3?
In diesem Forum wird die Leistung von GTA 3 unter verschiedenen Grafikkarten heftig diskutiert.

Unfortunately, in testing ATI cards performed choppy at best. My
recommendation is to keep both your desktop and game at 16 bit color depth.
I'm sorry for the inconvenience this may cause you, but I'm only being
honest. The processor in combination with the driver support for ATI cards
is a bit below the nvidia chipset as far as quality goes.

To be honest, in a strict hardware and driver comparison only, the lowest end GeForce card can run rings around almost any Radeon card. As far as assumptions go, you can assume whatever you want. As far as the truth goes, I'm just passing along information that I got in a .pdf format document because they were so secretive in the production that they wouldn't let us know anything else about it. To be honest, in a strict hardware and driver comparison, the lowest end GeForce card can run rings around almost any Radeon card.

ATi's R300 spielt Schlüsselrolle bei Intel's Enterprise Workstation Platform Demo

Hier gibts ATi's Pressemitteilung.

Computex 2002 - Teil 3

Hier die dritten Teile: Anandtech, HardOCP und TBREAK.COM

 05.06.2002

ATi's RV250 und R300
Nachdem Anandtech einen lauffähigen R300 bewundern durften, sind nun noch ein paar Infos zum RV250 aufgetaucht.

"The architecture is very similar to R200 (DX8 part) with a few things removed and core clock speeds are expected to be close to 300MHz according to our sources today. At 300MHz the RV250 has the potential of being tough competition for the GeForce4 Ti 4200, but we'll have to wait for its launch before we can decide for certain."

NVIDIA GeForce 4 - Drei Monate später
Hier gibt es ein interessantes Editorial zu NVIDIA's GeForce 4, welches auch die preisliche und leistungsmäßige Entwicklung der letzten drei Monate betrachtet.

NVIDIA's NV30
Ein kleines Preview zu NVIDIA's NV30 gibt es hier. Leider gibt es bisher keine Angaben bezüglich Displacement Mappings oder HOS. Allerdings sollte man vorsichtig sein und nicht alles blind glauben, deshalb hab ich es mal ein wenig kommentiert.
  • NV30 aka "Omen" (Farewell GeForce, hello Demian)
  • AGP 4x and 8x
  • Copper Core GPU Processor 0.13 m default clock 450 MHz - NVIDIA hat sich schon oft bei hohen Mhz-Zahlen die Finger verbrannt
  • 73 million transistors
  • 8 pipelines
  • 128 MB DDR-SDRAM @ 375 MHz x2 = 750Mhz and 256 bit ; yeah 256 bit!
  • 370Mhz RAMDAC
  • Direct X 9.X compatible
  • Quad Vertex Shaders
  • Dual Pixel Shaders - 8 Pipelines und nur 2 Shader ? Was machen die restlichen 6 Pipelines ? Shader und Pipelines lassen sich nicht richtig trennen, daher ist diese Angabe völliger Unsinn
  • 85 bone capable - was soll das sein? Matrix skinning mit max. 85 "Knochen" ?
  • Lightspeed Memory Architecture III
  • Quad Cache memory caching subsystem
  • Dual Z-buffers for greater compression without losses
  • Visibility sub-system
  • NvAuto advanced pre-charge
  • Advanced Hardware Anisotropic Filtering - A new 12nvx mode that delivers improved subpixel coverage, texture placement and quality. -12nvx bezeichnet FSAA, dies hat nichts mit anisotropischen Filtern zu tun.
  • 12nvx mode should deliver 80% better subpixel coverage and placement than previous modes
  • Hardware bumpmapping - ist schon seit DirectX 6/7 möglich, zählt seit DirectX 8/9 auch zu den Möglichkeiten des Pixel Shaders
  • 4 Textures/Pixel in a single clock cycle "loop back" can also apply an additional 4 textures per rendering pass
  • A separate second copper processor running at 450Mhz an 0.13m as well - handle all T&L now called TT&L (True Time and Lighting) NVAutoShaper a new prechached and precacheable system
  • Programmers can also add shapes to be temporarily stored in precache to speed things up
  • Latest Open GL
  • Backward Glide game capable thanks to NvBlur (Yeah, new Glide!) - Ich glaubs erst wenn ichs sehe, wer benötigt einen NV30 um alte Glide-Games zu spielen?
  • NView Multi-display Technology
  • Built in re-programmable DVD and TV decoder chip

Computex 2002 - Teil 2
Hier die zweiten Teile: Anandtech, HardOCP und TBREAK.COM
Interessant auch der Kommentar bei TBREAK.COM: "Our last stop for Day 2 was at nVidia. Yes, you read it right...unfortunately we cant tell ya what we saw there ;) Until tommorow then..."

 04.06.2002

SiS Xabre 400 Review
HEXUS.net haben ein Xabre 400 Review online. Die Leistung legt etwa auf dem Niveau einer NVIDIA GeForce 4 MX 440.

Matrox Parhelia 512 Bilder
Hier gehts zu den 4 Bildern der Parheila 512.

NVIDIA GeForce 4 GO 440 Review
Hot Hardware haben NVIDIA's mobile GeForce 4 Version getestet.

Computex 2002 - Teil 1
Hier drei gute Computex Berichte: Anandtech, HardOCP und TBREAK.COM

Linux und ATi's FireGL Treiber auf der Radeon 8500
Hier ein kleiner Screenshot.
Linux

 03.06.2002

Kostenlose 3D-Treiber für die Radeon 8500 unter Linux
ATi hat endlich die XFree86 4.1.0 / 4.2.0 3D-Treiber für Linux released. Offiziell werden nur die FireGL 8700 / 8800 unterstützt, jedoch laufen die Treiber auch auf der Radeon 8500.

I want to believe

Der RV250 soll angeblich mit Radeon 9000 bezeichnet werden...

S3 bietet SavageXP in Lizenz (Certified Partner Program)
Der SavageXP wird als preiswerter mainstream GPU eingesetzt werden, welcher das untere Leistungssegment bedient.

Trident's XP4 mit vollem DirectX 8.1 und DirectX 9 Support
Tridents neuer XP4 sieht recht vielversprechend aus. DirectX 8.1 und 9 Support bei gerade mal 30 Mio. Transistoren klingt nicht schlecht.

ATi Radeon 8500 AIW Review

Beyond3D haben ein gutes ATi Radeon 8500 AIW Review online.

 01.06.2002

Siggraph 2002
Hier ein paar interessante Themen (Courses) der Siggraph 2002, natürlich gibt es noch vieles mehr.

Kommentare von John Carmack
Auf Slashdot gibt es einen langen Thread zum Thema Doom III (GeForce 4 schneller als Radeon 8500, Doom III nur in mittlerer Qualität gezeigt, Doom III und Linux .... ) - dazu hat sich dann auch mal John Carmack geäußert:

Misrepresented:

This batch of comments from me have let people draw conclusions that leave me scratching me head wondering how they managed to get from what I said to what they heard.
Other people have outlined the issues in detail in comments already, but the crux is that, even with driver quality removed from the discussion (not counting conformance issues, running at fill limited resolutions), GF4 hardware is still faster than 8500 hardware on basically everything I tested. The 8500 SHOULD have been faster on paper, but isn't in real life.
The hardware we used at E3 was not an 8500, and while the drivers were still a bit raw, the performance was very good indeed.
Take with a grain of salt any comment from me that has been paraphrased, but if it is an actual in-context quote from email, I try very hard to be precise in my statements. Read carefully.
John Carmack


High end hardware reasoning:

We know for sure that we will be excluding some of the game buying public with fairly stiff hardware requirements, but we still think it is the right thing to do.
The requirement for GF1/Radeon 7500 as an absolute minimum is fundamental to the way the technology works, and was non-negotiable for the advances that I wanted to make. At the very beginning of development, I worked a bit on elaborate schemes to try and get some level of compatibility with Voodoo / TNT / Rage128 class hardware, but it would have looked like crap, and I decided it wasn't worth it.
The comfortable minimum performance level on this class of hardware is determined by what the artists and level designers produce. It would be possible to carefully craft a DOOM engine game that ran at good speed on an original SDR GF1, but it would cramp the artistic freedom of the designers a lot as they worried more about performance than aesthetics and gameplay.
Our "full impact" platform from the beginning has been targeted at GF3/Xbox level hardware. Slower hardware can disable features, and faster hardware gets higher frame rates and rendering quality. Even at this target, designers need to be more cognizant of performance than they were with Q3, and we expect some licensee to take an even more aggressive performance stance for games shipping in following years.
Games using the new engine will be on shelves FIVEYEARS (or more) after the initial design decisions were made. We had a couple licensees make two generations of products with the Q3 engine, and we expect that to hold true for DOOM as well. The hardware-only decision for Q3 was controversial at the time, but I feel it clearly turned out to be correct. I am confident the target for DOOM will also be seen as correct once there is a little perspective on it.

Unrelated linux note: yes, there will almost certainly be a linux binary for the game. It will probably only work on the nvidia drivers initially, but I will assist any project attempting to get the necessary driver support on on other cards.


John Carmack



1Gbit/s (1GHz) DDR-II im nächsten Frühjahr
Samsung wird diesen DDR-II Grafikspeicher im nächsten Frühjahr in großen Stückzahlen produzieren.

STMicro Interview
Pasquale Pistorio, CEO von STMicro habe bei ebnews ein Interview gegeben.

Open Source GPU
Hier kann man sich über einen Open Source GPU informieren.