ATI X800

peter_86

Cacodemon
Originally posted by aRKeycH@04.05.04, 16:48
Hast Du mal infos zu den shadermodellen überhaupt gelesen ?


Übrigens hatte ATi glaub in ner frühen Design phase PxSh 3.0 in der pipeline,wurde aber gecancelt , weil es probleme mit PxSh 2.0 gab(performance).




ATi sagt hierzu, daß die Shader 3.0 keine solche Bedeutung haben werden, wie die IT-Welt eventuell derzeit annimmt, und daß man sich deshalb beim R420 lieber zielgerichtet auf die Shader 2.0 Performance konzentriert hat, anstatt mit den Shadern 3.0 ein schönes, aber eher nutzloses Checklisten-Feature einzubauen.

Dem stimme Ich zu aus, weil es stimmt schon , das 1. extrem wenige Gamedev's davon nutzen machen werden, und 2. wenn ,dann sind die jetzigen(die generation jetzt kommt) 3.0 Karten schon wieder lowcostware.

Gamedev's nutzen meist nur die solidesten dinge der features aus, die gegeben sind, und diese auch auf dem kleinsten Nenner.
ATi spielt das nur herab, weil sie diese shader technologie nicht in ihrer gk integriert haben... zm 2. punkt, klar werden diese gks in einem jahr wieder low cost sein.. doch da stellt sich die frage, ob du dann auch wieder eine neue gk kaufen willst, um dann diese shader sehen zu können... von mir aus gesehen, sollte eine gk schon 2 jahre halten.. tut sie eigentlich von der leistung her auch.. jdeoch von der technik her ist es meist sehr schwierig, moderne techniken auf alter hardwre zum laufen zu bringen.. deshalb das bespiel von hl2... aber es ist deine entscheidung, wenn du dann in einem halben jahr schon wieder einige effekte nicht sehen kanst und dich darüber aufregst zb in stalker etc...

Von wo willst du wissen, ob spiele entwickler davon keinen gebrauch machen werden? bist wohl selber einer :daumen: dann wären wir ja schon 2.... :D
 

aRKeycH

Mancubus
Es ist nicht das Problem ,ob es nicht verwendet wird,dass wird es sicher ,aber im verhältniss zur Hardware entwicklung wirklich sehr spät, da wirst Du mir vielleicht zustimmen.

Und da Ich eh keine Gamer Karte besitze , muss Ich mich eh damit abfinden , nicht alles zu sehn(aber warscheinlich erst nach 2005) ^^

Es ist einfach ne tatsache, das man mit ner Grafikkarte zu weit vorausdenkt, und wenns soweit ist, das die features endlich benutzt werden, hat man ein anderes Problem, weil dann vielleicht die performance zu wünschen übrig lässt.

Klar wenn man eh nur das neuste will,und jetzt auf nem stand ner (9700Pro ist ,oder dem entsprechendem Nvidia Stück) dann nur zu,aber wenn ich jetzt schon auf nem halbwegs aktuellen stand währe(9800xt oder nvida gegentstück),dann lohnt sich sowas nicht.


Ich hab mir das nämlich abgewöhnt, nach dem Ich mir damals die Geforce 3Ti500 gekauft hatte, und in Games hat die jeweiligen features erst jahre später gesehn,oder vielleicht gar nicht.(je nach dem konnte man die Games da an einer Hand abzählen).


Heut zu tage kann man getrost und ruhigen gewissens 2-3 generationen auslassen, ohne auf wirklich unverzichtbare features zu verzichten.(betrifft nicht alle komponenten, cpus wandern bei mir meistens alljährlich, ab und zu sogar halbjährlich)

Das Geld kann man besser investieren(oder bei den saftigen Grakka preisen auch sparen).



bist wohl selber einer dann wären wir ja schon 2....

Meine Zeit wird noch kommen :D

Aber Ich habe mich schon mit den meisten thematiken, die die branche betrifft, ausgiebig befasst , (ausser Game design, und Sounddesign)

Zeit kommt Rat, auch Ich werde irgend wann mal Geld dafür bekommen,und wenns nur zum Leben Reicht. :D
;)
 
Zum Thema Shader 3.0:

Das einzige mir bekannte Spiel, dass bisher vorgestellt wurde und das optisch von PixelShader 3.0 Technologie profitieren wird, ist Unreal 3 mit dem bisher nicht in dieser Art möglichen Feature namens "Virtual Displacement Mapping". Es wird die Fähigkeit der PixelShader 3.0 verwendet, auf den Grafikspeicher zugreifen zu können.
Unreal 3 soll aber erst im Jahr 2006 kommen und bis dahin ist jede der neuen Karten Schnee von gestern. So wie es heutzutage die GeForce 4 Ti Karten sind. Sie bieten zwar das nötige Tech-Level für die aktuellen Spiel, aber sind einfach schon etwas zu lahm für höhere Details. Genauso wirds mit den GeForce 6800 Karten sein. Sie können zwar die tollen Effekte darstellen, aber eben nur mit unzureichender Geschwindigkeit!

Und der Farcry-Patch für den Support für Shader 3.0 ist ein dämlicher Marketingtrick. In Wirklichkeit gibt es keine optischen Unterschiede zwischen dem Ergebniss was Shader 2.0 Hardware und Shader 3.0 Hardware produziert, da Farcry einen kombinierten PixelShader 2.0/3.0 Pfad hat (alternativ zum PixelShader 1.x Pfad). Shader 3.0 Hardware führt lediglich zu etwas besserer Performance aber nicht zu besserer Bildqualität in FarCry. Und angesichts der aktuellen Bildqualitätsprobleme bei Nvidia im Vergleich zu ATI (in Farcry), seh ich den Patch sogar als nötiges Mittel, um die auf den GeForce 6800 Karten diesselbe hohe Bildqualität zu erreichen wie auf ATI Karten! Mehr zum Thema: http://www.theinquirer.net/?article=15502
 

Goofos

Pain Elemental
Ich finde Nvidia hat mit dem NV40 nen soliden, guten und schnellen Chip gemacht.
Eigentlich hätte ich von ATI mehr Neuerungen erwartet.
Aber wenn ich mir die Benchmarks und die Qualitätsvergleiche ansehe, ist es mir egal welche Karte ich da Kaufen würde. Die paar FPS wo die eine Karte in dem und dem Benchmark schneller ist, ist ein Witz. Bei AA und AF seh ich perönlich keinen Unterschied mehr. Auf 1600 x irgendwas werd ich sowieso nie zocken. Usw.
Für mich wird eintscheidend sein wie billig die Mid-Range Karten sind und wie schnell die sind. Bis jetz würd ich mir aber eher eine Nvidia karte kaufen, weil da nunmal die OpenGL Unterstützung besser ist und die Treiber besser sind. Obwohl mich diese Kühlerklumpen ziehmlich aufregen.
Aber bin mal gespannt, was jetz wieder für ein Nvidia vs. ATI Kampf anfängt, von wegen irgendwelchen nutzlos aufgebohrten Karten, Optimierungen und dummer Werbung :wall:
 

GamlerHart

Cyberdemon
Von den Leistungen bei heutigen Games sind wirklich beide etwa gleich. Es spiel echt keine Rolle.
ATI's stärke ist, das sie nicht ein Kühler-Klotzt mit gitantischem Stromhunger ist.
Nvideas stärke ist der Video-Encoder und die Pixel-Shader 3,0.
Aber ich denke, das die Pixel-Shader 3.0 bis jetz nicht wirklich was bringen. Das meiste kann man mit 2.0 auch.
Solche Patch für FarCry sind ein Witzt. Man kann nicht eifach auf Shader 3.0 update und einfach bessere Effekte haben.
Sie wurden einfach Konvertier, um die Leistung zu verbessen. Für 3.0 muss man einfach vom Grunde auf auf 3.0 aufbauen.



Die Treiber sind bein Nvieda schon ein bisschen besser, und auch OpenGL. Aber wer braucht schon OpenGL.
Die einzige "ernsthafte" Engine kommt wohl in nächster Zeit von Doom3.
Und ich denke dass unser Kumpel John auch so proggt, dass sie auf ATI problem los laufen.
Quake 3 und Co sind glaub ich kein Thema, die laufen eh schnell genung. Da spielts nicht so ne rolle.
Wirklich noch OpenGL brauchen natürlich Modeller. Aber ich kann mir kein 3DS MAX leisten.

Schlussendlich ist es ein vom Bauch aus Entscheid. Manche mögen Nvidea. Ich mag ATI.
 
Originally posted by GamlerHart@05.05.04, 00:08
[...]
Nvideas stärke ist der Video-Encoder [...]
Das hab ich mal fälschlicherweise im Channel verzapft. Da ich immer alles nachschaue, wenn ich mir bei Dingen nicht sicher bin, hab ich festgestellt, dass es tatsächlich nur ums Decoding geht. Die GeForce 6800 hat extra Chip-Logik für die Dekodierung von aufwendigen Videodaten bis hin zu WMV-HD Videos (Auflösung 1920x1080, sehr hohe Bitrate, gute Kompression).
ATI bietet dasselbe nun auch an, allerdings werden hier die Pixelshader zur Beschleunigung verwendet und keine extra Chiplogik.

Mangels Treiberunterstützung bei Nvidia ist die Beschleunigung bisher aber nur bei ATI nutzbar. Beim WMV HD Format reicht laut einem Test, den ich gesehen hab, bereits ein 2 GHz Prozessor anstatt der empfohlenen 3 GHz. Die GeForce 6800 verursacht noch eine sehr hohe CPU-Last bei WMV HD. Mit den passenden Treiber sollte sich das aber schlagartig ändern. Lustigerweise ist die Radeon X800 XT aber nicht schneller beim Video-Decoding als die Vorgänger. Ich kann z.B. auch auf meinem Pentium 4 2,53 mit meiner Radeon 9700 die WMV HD Videos seit dem Catalyst 4.4 flüssig anschauen!
 

GamlerHart

Cyberdemon
Ein Grund mehr für die ATI. :stolz:

Naja, wenn die Treiber für die GeForce dann wirklich reif sind, wird man sehen, obs die extra Chip-Einheit bringt.
Ich brauch auch kein HDTV Bild. Mein Monitor fängt schon an zu flacker, wenns die 1024x768 übersteig.
Ist halt ein altes Geschwür. Aber ich brauch auch nicht mehr.
Ausserdem wo gibts schon solche Videos mit dieser Aulösung. Eher noch Zukunftsmusik.
 
Originally posted by GamlerHart@05.05.04, 11:28
Ausserdem wo gibts schon solche Videos mit dieser Aulösung. Eher noch Zukunftsmusik.
Das gesamte japanische TV läuft in dieser Auflösung :stolz: .
 

Reload-Kill

Light Guard
was willst du denn mit Shader 3.0 ???? Bringt dir erlich gesagt nicht viel mehr!!! Ich finde das es nicht gerade einen sehenswerten Unterschied zwischen 2.0 und 3.0 gibt
 

Freakman

Crash
Originally posted by Reload-Kill@05.05.04, 14:53
was willst du denn mit Shader 3.0 ???? Bringt dir erlich gesagt nicht viel mehr!!! Ich finde das es nicht gerade einen sehenswerten Unterschied zwischen 2.0 und 3.0 gibt
Lebst du hinterm Mond? :gaga:
Demnächst werden viele neue Spiele Pixelshader 3.0 unterstützen.

Mir fällt gerade auf, dass deine Signatur zu groß ist. Also bitte entferne den Text oder den Banner. Kannst du dir aussuchen :hmm:
 
Pixelshader 3.0 sind derzeit für Entwickler auf jeden Fall ganz nett und werden wohl auch ausschlaggebend sein bei der Arbeitsgrafikkartenauswahl eines Entwicklerstudios.
Aber Spieler sind auch mit PixelShader 2.0 Unterstützung bestens bedient, da wie gesagt erst 2006 ein Spiel erscheinen wird, das mit den PixelShadern 3.0 signifikante Unterschiede gegenüber PixelShadern 2.0 bieten wird. Bis dahin dienen die PixelShader 3.0 lediglich der Performanceverbesserung. Das ist natürlich nichts negatives, im Gegenteil. Aber PixelShader 2.0 auf einer Karte mit der Schnelligkeit einer Radeon X800 XT ist doch auch schon völlig ausreichend (man beachte die überragende Performance der neuen Radeon in Farcry bei voller Grafikqualität).
 
:lol: ich dachte eine zeit lang echt hier sind die leute in ordnung und würde mich hier wohl füllen, aber dieser thread ist ein kindergeburtstag, totall sinnlos, ihr seid alle nur auf die marken fixiert, der rest interessiert euch doch keinen meter!!!

brennt euch doch eure firmenlogos aufn "Das Ding aus dem die Kacke kommt" :toll: :fuck:
 

tux-fan

B.J. Blazkowicz
Imho bislang der beste Artikel zum Thema X800 <-> 6800 : 3DCenter - Inside ATIs R420

Hier ein Ausschnitt...
Aber, Geschwindigkeit darf nicht der einzige Maßstab sein. Jede beliebige FX 5200 mit einem 64-Bit-Speicherinterface, zu kriegen für etwa 70 €, bietet sehr viel mehr Shaderfeatures an, als die X800 XT. Zwar ist die 5200 extrem langsam, und doch etwa 100 mal schneller als Software-Rendering, wohingegen die X800 nur vergleichsweise simple Shader rendern kann. Ich will das Thema hier nicht vertiefen und auch nicht ausführen ob man die NV40-Features braucht. Tatsache ist: Nvidia liefert sowohl Geschwindigkeit als auch Features, während ATI nur Geschwindigkeit bietet. Wenn die X800 auch schneller sein mag als Nvidias neuestes Werk, ist sie damit nicht automatisch die bessere Karte. Andererseits, da wir jetzt wohl keine greifbaren Vorteile vom SM 3.0 oder anderen NV40-Merkmalen haben, ist das featuremäßig "vollständigere" Produkt genauso wenig automatisch die besseren Wahl.


Edit: Huch, der Link auf den Artikel wurde ja schon gepostet :wall: ;
aber einen Link auf das Demo-Filmchen gibt's wohl noch nicht :stolz:
Double-Cross-Demo
 

RuSher

Gebannt
Originally posted by Pyromaniac@05.05.04, 14:21
:lol: ich dachte eine zeit lang echt hier sind die leute in ordnung und würde mich hier wohl füllen, aber dieser thread ist ein kindergeburtstag, totall sinnlos, ihr seid alle nur auf die marken fixiert, der rest interessiert euch doch keinen meter!!!

brennt euch doch eure firmenlogos aufn "Das Ding aus dem die Kacke kommt" :toll: :fuck:
Jo wenn ich schon die Leute sehe die en ATI/NVIDIA Avatar haben :lol: :D
 
Naja, ist doch normal...Bei vielen sind Marken entscheidend...mit irgendwas muss man sich doch profilieren...sei es bei Kleidung, dem Rechner, dem Auto oder der Lieblingsband...Meins ist toll, deins ist scheisse...so ist das nunmal...Ich freu mich schon drauf wenn mir gleich auf der Autobahn die Intelligenzbestien mit ihrem tiefergelegten Golf, "Böhse Onkelz" Aufklebern an der Heckscheibe und kahlrasiertem Schädel auf die Nerven gehen...

Naja, ich kann drüber lachen ;)

Life's a bitch - Life's a whore
Nothing less - Nothing more
 

Adan0s

Administrator
Staff member
hach, was hät ich anderes von dir erwartet rusher. :toll:

hasdes wohl in letzter zeit auf mich abgesehen.

naja, is mir wurscht
 

peter_86

Cacodemon
also jungs.... Shader 3.0 wir auf jeden fall neue features bieten, die sehr sehenswert sind! zudem ist die aussage falsch, dass ers in 2 jahren ein spiel heraus kommen wird, dass die shader 3.0 richtig nützt!! crytec arbeited an einem pach, der pixelshader 3.0 integriert... :D hier ein paar pic dazu..

original farcry..:

Bild 1 shader 2.0

farcry shader 3.0:

Bild 1 shader 3.0

2.Bild farcry original...:

Bild 2 shader 2.0

2.Bild farcry shader 3.0...:

Bild 2 shader 3.0


wie man sehen kann, verwendet farcry nun virtual diplacement mapping. dazu wurden auch volumetrische schatten eingebaut, die man hier nicht gut erkennen kann ( da es ein bild un kein video ist)...



hier ist ein vergleich zwischen shader 2.0 und shader 3.0....

Vergleich


Crytec hat nur 3 wochen gebraucht, um diesen shader 3.0 in ihr spiel einzubauen und es wird ein pach erscheinen, sobald die neue geforce zu kaufen ist...

somit ist denkbar, dass auch andere entwikler ihre games per pach auf shader 3.0 upgraden werden.. ich werde auf jeden fall die geilen effekte geniesen und wer das nicht will, hat nen knall in der birne.... :fuck:
 
Der von dir gelinkte Vergleich ist ja mal krass. Das soll stimmen?
Mal gespannt was die 6800 Ultra Extreme (wat n Name!) leistet. Wenn jetzt auch schon gewisse Stimmen behauptet, das soviel sie nicht besser ist.
Im Moment finde ich es ziemlich bescheiden das man, will man ne neue Nvidia Karte nutzen, gleich auch ein neues Netzteil braucht...
Ich schiele mal Richtung X800 XT ;)
 
Top