ATI X800

Reload-Kill

Light Guard
einfach krass. Da ich jetzt Radeon fan bin oder besser ATI fan :D :D :D werde ich sie mir kaufen. Aber erst wenn sie billiger wird.
 

CruSAdeR

Maledict
Den ersten Benchmarks nach zu urteilen sieht es eher schlecht aus für ATI. Ich hätte da jetzt mehr erwartet, zumal ATI ja die Benchmark ergebnisse von der neuen nvidia kennt. Nur folgendes versteh ich nich:
In Sachen Performance geht ATI jedoch keine Kompromisse ein. ATI verspricht mit der zunächst größten Ausbaustufe - der X800 XT - die doppelte Leistung einer Radeon 9800 XT und deutlich bessere Werte als NVIDIAs GeForce 6800 Ultra. Selbst die kleinere Variante X800 Pro soll NVIDIAs neuem Flagschiff das Fürchten lehren - und das mit geringerem Stromverbrauch und einfacherer Kühllösung.
bei welchem benchmark hat die x800xt deutlich bessere Werte als die 6800 ultra???
 
Originally posted by [Crusader]@04.05.04, 15:22
Den ersten Benchmarks nach zu urteilen sieht es eher schlecht aus für ATI. Ich hätte da jetzt mehr erwartet, zumal ATI ja die Benchmark ergebnisse von der neuen nvidia kennt. Nur folgendes versteh ich nich:
In Sachen Performance geht ATI jedoch keine Kompromisse ein. ATI verspricht mit der zunächst größten Ausbaustufe - der X800 XT - die doppelte Leistung einer Radeon 9800 XT und deutlich bessere Werte als NVIDIAs GeForce 6800 Ultra. Selbst die kleinere Variante X800 Pro soll NVIDIAs neuem Flagschiff das Fürchten lehren - und das mit geringerem Stromverbrauch und einfacherer Kühllösung.
bei welchem benchmark hat die x800xt deutlich bessere Werte als die 6800 ultra???
ATI kannte die Benchmarkergbnisse der GeForce 6800 Ultra mit 400 MHz Chiptakt. Nun hat sich Nvidia allerdings dazu durchgerungen, die GeForce 6800 Ultra Karten mit einem Chiptakt von 450 MHz auf den Markt zu werfen. Und genau diese neue Version ließ Tom's Hardware erstmals antreten!
Deshalb liegen Radeon X800 XT und GeForce 6800 Ultra nun gleichauf.
 

oglu

Knight
bei fast allen... von welchen benchmark redest du...?


update:
sehe gerade das es bei tomshardware ganz anders ist... sry...
 

Reload-Kill

Light Guard
3DMark2003 v340

Geforce 6800 Ultra Extreme 12671 Geforce 6800 Ultra Extreme (Quality) 7483
Geforce 6800 Ultra 11865
Geforce 6800 Ultra (Quality) 6996
Radeon X800 XT Platinum 12007 Radeon X800 XT Platinum (Quality) 7339

Radeon X800 Pro 8622
Radeon X800 Pro (Quality) 4713
Geforce FX 5950 Ultra 6549
Geforce FX 5950 Ultra (Quality) 3725
Radeon 9800 XT 6566
Radeon 9800 XT (Quality) 3365
 

Reload-Kill

Light Guard
Far Cry v1.1
1024x768 1280x1024 1600x1200


Geforce 6800 Ultra Extreme 45,3 43,7 38,8
Geforce 6800 Ultra Extreme (Quality) 42,8 40,3 34,6
Geforce 6800 Ultra 45,5 36,4 28,1
Geforce 6800 Ultra (Quality) 33,4 23,8 15,5
Radeon X800 XT Platinum 43,4 40,6 38,9
Radeon X800 XT Platinum (Quality) 40,3 39,1 33,6
Radeon X800 Pro 42,5 39,0 32,6
Radeon X800 Pro (Quality) 32,8 31,6 24,0
Geforce FX 5950 Ultra 33,5 23,1 16,8
Geforce FX 5950 Ultra (Quality) 24,2 23,8 11,6
Radeon 9800 XT 40,2 31,9 23,3
Radeon 9800 XT (Quality) 32,7 22,2 16,2
 

GamlerHart

Cyberdemon
Also ich hol mir definitiv die ATI.

Vorallem brauch ich kein AKW für die ;)

Ich mag keine GraKa, für die ich eventuell ein neues Netzteil brauche. Ausserdem bin ich mit ATI bis jetzt gut gefahren
Ausserdem für was brauch ich Pixel-Shader 3.0. Das unterstützt eh noch kein Spiel. Und wenn diese Spiele kommen,
dann gibt beim mir ein Komplett neuer PC. Und dann hats dann eh wieder eine neue.

ATI :yeah:

Eifach genial.
 

aRKeycH

Mancubus
Ihr lechtzt euch wieder um diese Paar frames ? :ugly:


Die sagen wie immer mal nichts aus , weil die meisten user andere Komponenen in seiner Kiste hat.



Echt zum schreien dieser 5-10 frames-mehr-wahn. ;)


Wenn Ihr wirklich Grakkas wollt die die jetzige Generation um 100% überholt,dann wartet bis mitte nächstes jahr dann sollte es solche Karten geben. (ironie)


Und ja Pixelshader 3.0 kann keine reällen vorteile gegenüber 2.0 ausspielen,aber aus anderen gründen,
 
Es ist schön zu sehen das Man als Benutzer recht gut dasteht...Man kann sich wirklich recht frei entscheiden ob man die Nvidia oder ATI Karten haben will, da die sich Leistungsmässig und auch Qualitätsmässig nicht viel geben...

Die Vorteile die ATi wohl haben dürfte sind der doch niedrigere Strom und Platzverbrauch, und auch die weniger produzierte Wärme...Das erweiterte Featureset der NVIDIA Karte sehe ich nicht als so grossen Vorteil, wobei ein unbedarfter Käufer da natürlich leichter mit Geködert werden kann...

Auf jeden Fall finde ich die "neue" Karte von ATi gut gelungen, wobei mir auch die NVIDIA Karte zusagt...Wobei ich, wenn ich nicht eine 9800Pro hätte, eher zu den ATi Karten tendieren würde, da ich nicht noch extra ein neues Netzteil kaufen wollen würde ;)
 

Greeny

Cyberdemon
also performance maessig is die neue ati schon geringfuegig besser das stimmt ! Auch in der bildqualität
schlaegt sie oft die nvidia ! Und zu meinem erstaunen hat sich ati den anistofisch filterungs tron geholt ...
aber wie es auch in t hardware steht : sie hat keine pixel shader 3.0 die ja imo noch nirgends eingebaut sind..
aber sollten diese kommen sieht sie alt aus denn : Habt ihr die screenshots im nvidia release video (homepage) der geforce 6 von dem gepatchten far cry gesehen ? das sah hammer aus und hatte auch ueberall duiese mit ps 3.0 erzeugten geilen bachsteinwaende oder felsenwaende realistisch wie im unreal 3 engine video.. sollte der f c patch erscheinen und viele andere games das dann auch unterstuetzen
weiss ich ehrlich gesagt net mehr was ich mir holen soll!

Bitte postet jemand wenn er benchmarks von d3 entdeckt und hl2 wie sie auch beim geforce6 release gemacht wurden....
 

Diego

Tank
Ich habe mir den Test auf Toms Hardware mal unter die Lupe genommen und habe festgestellt,das
die GeForce 6800 Ultra etwas schneller ist als die Radeon X800 Plantinum,aber auf diese 2 Frames
können wir ja mal kacken und die Radeon X800 Plantinum ist sogar um mehr als 10 Fps schneller
in manchen Spielen als die GeForce,also wenn wirs so sehen hat die Radeon einen deutlicheren
Performanceschub!
Ausserdem verfügt die Radeon über bessere Filter und Anisotrop und wat nich alles,die Texturqualität
ist jetzt sogar der GeForce überlegen,alles was die GeForce hat ist er Pixel Shader 3.0,der die
Karte offenbar in Stich gelassen hat :hammer:
 

aRKeycH

Mancubus
Wie schonmal erwähnt zu den pxsh. die meisten effekte , sind damit 2.0 auch zu berwerkstelligen, denn wenn die vorteile von 3.0 zu 2.0 so gravierend währen , wäre ati sicherlich auch auf den 3.0 Zug aufgesprungen...

Ich würde diesbezüglich ein wenig lektüre(auf einschlägigen Seiten) empfehlen.




Prinzipiell schickt ATi mit dem R420 einen in der Breite deutlich aufgebohrten, von der Grund-Architektur aber nahezu identischen Chip ins Rennen - und stellt damit zumindestens von der Technologie her ein deutliches Kontrastprogramm zum NV40-Chip von nVidia auf. Denn der R420-Chip ist aufgrund seiner direkten Abstammung von den R3x0-Chips weiterhin nur zu Vertex und Pixel Shadern 2.0 in der Lage, während der NV40 diesbezüglich schon die höhere Version 3.0 beherrscht und damit technologisch gesehen weitaus moderner ist.

Das ATi genau diesen Weg beschreiten würde, hatten wir schon im Februar gemeldet, auch wenn dies uns seinerzeit nicht jeder sofort glauben wollte. Inzwischen hat sich jedoch die Diskussion, ob Shader 2.0 oder 3.0, deutlich beruhigt, weil immer mehr Fakten zu den beiden Shadermodellen auf dem Tisch liegen. Generell läßt sich sagen, daß nahezu jeder Effekt, welcher mit Shader 3.0 dargestellt werden kann, auch mit den Shadern 2.0 möglich ist, womit diesbezüglich der R420 gegenüber der NV40 nicht benachteiligt ist.

Der Vorteil der Shader 3.0 liegt eher auf der Seite der Spieleentwickler, welche mit dem Shadermodell 3.0 einige zusätzliche interessante Möglichkeiten mehr haben als mit dem Shadermodell 2.0, sowohl was aufwendigere Shader als auch leistungsfähigere angeht. Zusätzlich gibt das Shadermodell 3.0 den Treiberprogrammierern einige hochinteressante Möglichkeiten, ältere Spiele bis hinunter zu DirectX7 zusätzlich zu beschleunigen, was das nVidia-Treiberteam in der Zukunft auch sicherlich ausnutzen wird.


Irgendwoe hab Ich wass ähnliches gelesen aber auf english.
 

peter_86

Cacodemon
Also: wie man in den benchmarks sehen kann, geben sich die beiden kontrahenten wirklich nichts und unterscheiden sich meist nur minimal... hier ist nun aber zu sagen, dass man den unterschied von 2 frames bei 300fps nicht merkt, da monitore oder tfts meist nur 80 bilder/sekunde liefern! zu dem hat die shader 3.0 sehr viele vorteile und ist einfach die Zukunft... dazu wird voraussichtlich be farcry ein shader 3.0 model pach nachgeliefert... wenn ihr also die besser effekte nich sehen wollt, dann solltet ihr am besten eine ati kaufen, die es nich nötig findet, ihre kunden an neuen technologien teil zu haben... :lol: zb habe ich eine TI 4600 die mit dx 8.1 läuft.. ich kann zb noch aktuelle spiele mit der spielen... wenn ich jedoch mit der alten gk von meinem bruder versucht habe den hl2 leak zu spielen, hat e verschieden effekt nicht mehr dargestellt.. und das bei dx 8! man sollte das nicht unterschätzen und auf die langlebikeit einer gk mehr wertlegen.. oder wollt ihr schon in 1 jahr schon wieder eine neue gk kaufen, die dan das shadermodel 3.0 unterstützt um dan aktuelle games richtig spielen zu können? ich denke mal nicht... :yeah:
 

aRKeycH

Mancubus
Hast Du mal infos zu den shadermodellen überhaupt gelesen ?


Übrigens hatte ATi glaub in ner frühen Design phase PxSh 3.0 in der pipeline,wurde aber gecancelt , weil es probleme mit PxSh 2.0 gab(performance).




ATi sagt hierzu, daß die Shader 3.0 keine solche Bedeutung haben werden, wie die IT-Welt eventuell derzeit annimmt, und daß man sich deshalb beim R420 lieber zielgerichtet auf die Shader 2.0 Performance konzentriert hat, anstatt mit den Shadern 3.0 ein schönes, aber eher nutzloses Checklisten-Feature einzubauen.

Dem stimme Ich zu aus, weil es stimmt schon , das 1. extrem wenige Gamedev's davon nutzen machen werden, und 2. wenn ,dann sind die jetzigen(die generation jetzt kommt) 3.0 Karten schon wieder lowcostware.

Gamedev's nutzen meist nur die solidesten dinge der features aus, die gegeben sind, und diese auch auf dem kleinsten Nenner.
 
Top