Radeon-HD-2K-Serie

.83

Chthon
ja, aber ein kompletter wechsel geht schon ins geld (CPU, grafikkarte, motherboard und ram). Da überlegt man sich 2mal ob man wechselt.
Und die aktuellen AGP modelle sind gar nit so schlecht.
 
Hab den Link jetzt leider nicht mehr... Hab aber mal irgendwo gelesen, dass sogar der R600 AGP-"fähig" sein soll (ob das dann noch umgesetzt werden würde, ist fraglich). Hab das aber selbst nicht so ganz verstanden. Kann das jemand bestätigen?
 

.83

Chthon
Welche AGP karte ist denn nun die schnellste? Es gibt da echt ne riesen auswahl an produkten. Ich hätte ja schon gerne eine die 512MB hat.
 

.83

Chthon
@ FakeBitchKillaH

Danke.

INFO:

AGP 8x (2133 MB/s)

Meiner meinung nach geht da noch einiges, da die heutigen AGP-karten noch nit mal das ganze potenzial dieser schnittstellen ausnutzen!!!
 

FaKe

The Altered
ob man muss is ne andere frage, aber das is alles so abgesprochen von game-entwicklern und hardware-herstellern, das einem leider nicht viel übrig bleibt, wenn man ordentlich zocken will ;)
 

.83

Chthon
Ich suche einen testbericht/leistungsvergleich von der XFX GF 7950 GT (AGP mit 512MB). Find aber nix vernünftiges.
 
Machen wir mal ein bisschen back to topic? Also wenn du noch ein bisschen warten kannst, dann kannst du dir ja auch die X2600XT (wenn sie denn so heißen wird) von Gecube (siehe Inquirer-Meldung) holen. Da wartest du aber, gibst dann vielleicht (!) viel Geld für den neuen Standard aus und hast unter DX9 nicht mal ne große Mehrleistung. Wer weiß.
 

FaKe

The Altered
die seite hängt voll :(
auf den ersten benches,s chlägt die gtx die karte und nicht gerade knapp
 
Hier hat jemand den VR-Zone-Test hochgeladen:
http://rapidshare.com/files/31092804/r600_...ps.net.zip.html.

Und es gibt noch ein weiteres Review der X2900 XT: http://www.tweaktown.com/articles/1100/ati...ives/index.html.

AMD/ATI hat neue AntiAliasing-Modi eingeführt, zum einen 8xMSAA, was auch Nvidia mit der GeForce 8 bietet, zum anderen CFAA, was für custom-filter AntiAliasing steht. Das sind eigentlich keine echten AntiAliasing-Verfahren, da dabei nicht die effektive Kantenauflösung erhöht wird, sondern nur die Kanten etwas weichgezeichnet werden. Die neuen Modi sind also effektiv nur Post-Processing-Filter, die aufs fertig gerenderte Bild angewendet werden, während echtes AntiAliasing schon am Anfang der Renderpipeline berücksichtigt werden muss.

In Sachen Shaderleistung liegt die X2900 XT knapp hinter der 8800 GTX. Die X2900 XT besitzt 320 skalare Shadereinheiten, die je einen MADD-Befehl auf einer Komponente ausführen können. Der Chip samt Shadereinheiten taktet mit 742 MHz, so dass es die X2900 XT auf eine Shaderleistung von insgesamt rund 475 GFLOPs bringt.
Die 8800 GTX hat 128 skalare Shadereinheiten, die je ein MADD und ein MUL ausführen können. Der Shaderblock taktet dort mit 1350 MHz, so dass man auf insgesamt rund 518 GFLOPs kommt.

Die Speicherbandbreite ist bei der X2900 XT dank dem 512-Bit-Speicherinterface natürlich enorm, mit 106 GB/s kann die X2900 XT Daten mit dem Speicher austauschen. Die 8800 Ultra taktet den Speicher um 30% höher und kommt dennoch "nur" auf knapp 104 GB/s, was auch schon sehr viel ist.
Die Vorgängergeneration bot mit der X1950 XTX maximal 64 GB/s.

Die große Schwachstelle der X2900 XT scheint aber die Textureinheit zu sein. Nur 16 bilineare Textur-Filter-Einheiten besitzt die X2900 XT, die 8800 GTX/Ultra dagegen 64. Etwas entschärft wird die Situation dadurch, dass die X2900 XT zusätzlich über 80 Textur-Sample-Einheiten bei 32 Textur-Adressierungseinheiten verfügt. Theoretisch können die X2900 XT und die 8800 GTX damit gleichviele Textursamples pro Takt raushauten. Sobald aber Texturfilterung ins Spiel kommt, zeigt die 8800 GTX ihre Muskeln.
Immerhin hat ATI den Textureinheiten jetzt fp16-und fp32-Fähigkeit spendiert. Bei fp16-Texturfilterung ist die X2900 XT etwa 7-mal so schnell wie der Vorgänger. Und die X2900 XT beherrscht jetzt endlich auch PCF, was z.B. verwendet wird, um die Schatten in Battlefield 2 und einigen anderen EA-Games zu glätten.
Aber auch wenn AMD/ATI jetzt bezüglich der Features der Textureinheiten zu Nvidia aufschließen konnte, so ist die Texturfüllrate dennoch etwas unbefriedigend:

44230526c9.jpg


Insgesamt reiht sich die X2900 XT zwischen der 8800 GTS und der 8800 GTX ein, wobei die 8800 GTS schon eher die direkte Konkurrenz darstellt. Einen 8800-GTX-Killer sehen wir hier nicht, die 8800 Ultra hätte es vorerst auch nicht gebraucht.
 

DoomDoctor20

Arch-Vile
Hm dann muss man wohl doch bei Nvidia bleiben. Das ist natürlich sehr Schade, wenn Nvidia keine Konkurrenz im Highend Segment besitzt. ATI muss definitiv aufholen, aber Nvidia ist ja sicher bald wieder mit der nächsten Generation bereit.
 

DeZomB

Orbb
Das nächste was bei Nvidia kommen wird sind vermutlich kleinere chips also stromsparendere und 512bit speicher anbindung.
 
Inzwischen habe ich durchschaut, wie die neuen CFAA-Filter funktionieren.
Es gibt narrow tent, wide tent und edge detection. Alle drei haben gemeinsam, dass sie beim Fertigstellen des Bildes greifen, wenn die MSAA-Samples zu Pixeln verrechnet werden ("Downsampling").
Es sind also keine klassichen Post-Processing-Filter, wie man sie aus Spielen oder von den ATI Smarthshaders kennt, und sie funktionieren auch nur bei aktiviertem MSAA.

Bei narrow tent und wide tent werden beim Bestimmen der endgültigen Pixelfarbe Randsamples aus den benchbarten Pixeln einbezogen, der Effekt ist, dass das gesamte Bild ein wenig unscharf wird. Ganz ähnlich, nur etwas extremer und bei deutlich niedrigerem AA-Level hat es Nvidia vor einigen Jahren auch mal mit Quincunx-AA versucht.
Der edge-detection-Filter prüft vorher noch, ob ein Pixel auf einer Polygonkante oder einer Polygonfläche liegt. So werden nur die Polygonkanten behandelt, das Bild bleibt insgesamt scharf.
Edge detection kostet allerdings mehr Leistung als narrow tent oder wide tent.

Möchte man keinen dieser Filter anwenden, so wählt man bei Filter "box" aus. Dann werden nur Samples innerhalb des eigenen Pixels berücksichtigt, wie es halt normal ist bei MSAA.

Den 6xMSAA-Modus hat AMD/ATI übrigens zugunsten von 8xMSAA rausgeschmissen (6xMSAA geht mit der neuen Architektur prinzipbedingt nicht mehr).
 
Gecube bringt nach der Radeon X1950 Pro Dual, welche eine ernstzunehmende Alternative zur GeForce 8800 GTS 640 MB und der Radeon X2900 XT darstellt, nun auch eine Radeon X2600 XT im Doppelpack raus:
- Gecube Dual 2600 GEMINI2.

Mit Benchmarks kann ich leider noch nicht dienen. Aber kann durchaus sein, dass diese Dualkarte eine Radeon X2900 XT zu schlagen vermag. Spekulationen über Quad-Crossfire mit zwei solcher Karten sind auch schon im Gange.
 

Adan0s

Administrator
Staff member
bin ja jetzt mit ner x2300 mobile in meinem lappy unterwegs, und bin absolut über die performance überrascht, ich hätte ~9600 non-pro-performance erwartet, aber das teil ist um einiges schneller, hl2:lost coast in 1280x800 mit vollen details und hdr läuft absolut flüssig :)

werd demnächst wohl mal nen paar kleine benches machen, sobald's mal aussagekräftige treiber gibt. die jetzigen ati mobile catalyst unterstützten die graka noch nicht und muss deshalb auf nen asus-treiber vom märz zurückgreifen, bei dem opengl nur spärlich funzt (warsow läuft mit maximal 20fps, quake3 startet noch nichtmal)
 
Originally posted by Adan0s@03.06.07, 20:41
bin ja jetzt mit ner x2300 mobile in meinem lappy unterwegs, und bin absolut über die performance überrascht, ich hätte ~9600 non-pro-performance erwartet, aber das teil ist um einiges schneller, hl2:lost coast in 1280x800 mit vollen details und hdr läuft absolut flüssig :)
Man muss noch klar dazu sagen, dass die Radeon X2300 Mobility kein DX10-Chip ist, sondern noch auf der alten Architektur aufbaut und somit eher einer X1600 gleicht.

So extrem anfordernd ist Lost Coast übrigens gar nicht, bei mir (Radeon X1900 AIW @OC) rennts in 1920x1200, 4xAA, 16:1 AF, max. Details (+HDRR) mit 58 fps.
 
Top