nVidia im Grafikrausch mit SLI

Freakman

Crash
Originally posted by Th4@30.06.04, 18:38
sry 4 schreibweise und wortwahl, aber Kiddies wie ihn kann ich auf den tod nicht ausstehen.
Auch wenn du solche Leute nicht leiden kannst ist das kein Grund diese hier so niederzumachen. Man kann seine Meinung ja schließlich auch ohne Schimpfwörter ausdrücken. Deshalb drück ich dir eine 25% Verwarnung aufs Auge! :hmm:
 
da fällt mir grad ein, wieso hab ich bei mir unter dem namen diese bloede verwarnungsanzeige und alle anderen nicht? bin doch ein :angel: ^^
kann ich die irgendwo ausstellen :gaga:
im prinzip geb ich Th4 ja recht, aber die wortwahl ist nicht so passend :hmm:
 

Anthra|x|

Ubermutant
ich würde mal stark davon ausgehen, dass jeder nur seine eigenen verwarnungen sieht... wäre ja sonst auch doof wenn jeder hier sehen könnte wie oft man für sein gespamme verwarnt wird *stolz auf meine 0% bin* X-D
 

oglu

Knight
was habt ihr immer mit der lautstärke..? beim zocken ist immer genug lärm um den lüfter zu übertönen und sonnst hab ich auch immer die musik an... ich hör von meinem triebwerk nichts... und der strom interessiert mich auch recht wenig... wenn ich mir ne pizza mache braucht das 100mal mehr strom... :gaga:
 

Freakman

Crash
Originally posted by Anthra|x|@30.06.04, 19:14
ich würde mal stark davon ausgehen, dass jeder nur seine eigenen verwarnungen sieht... wäre ja sonst auch doof wenn jeder hier sehen könnte wie oft man für sein gespamme verwarnt wird *stolz auf meine 0% bin* X-D
So siehts aus. Nur Admins und Moderatoren sehen von jedem User den Verwarnungslevel.
 

Blizzard

Pain Elemental
Danke Oglu! Das is doch mal n Wort! Ausserdem, derjenige der die Karte net will muss sie ja nicht kaufen! Er wird ja nicht dazu gezwungen!

Ich weiss und sehe dass nVidia nicht mehr so gut ist, dennoch kauf ich mir wegen schlechter Erfahrung mit ATI ausschlieslich nVidia!!!!
 

Vaarscha

Ubermutant
Ich denke, dass derartige Highend-Entwicklungen dem Markt/der Entwicklung nicht schaden. Ein Ferrari oder ein extremer Geländewagen haben bei 99% der Situationen im stvzo gerechtem Straßenverkehr keine Anwendung, aber dennoch bringen sie dadurch, dass für sie mit einem enormen Kapitalaufwand geforscht werden kann, evolutionen in den Markt.

Deshalb ist die SLI Karte für die meisten nicht sonderlich sinnvoll geschweige denn finanziell verkraftbar, aber trotzdem fördert das die Konkurrenz und ATI muss sich eben etwas einfallen lassen - ohne Konkurrenz könnten sie fröhlich dösen.


Nochmal zum Preisargument: wenn man sich beide zugleich kauft, ist es natürlich happig, aber zum aufrüsten ist es doch recht genial, wenn man sich den Preisverfall bei GraKa's der letzten Generation anschaut im Vergleich dazu, wie man dann mit einer zweiten gf6800x die Leistung steigert (90% mehr nach dem, was weiter oben stand).... aber hallo! War doch mit der Voodoo 2 auch nicht anders, oder?
 

Freud

Baron
Originally posted by [Crusader
,30.06.04, 14:08] Ihr solltet euch vielleicht mal die letzten Versuche von 3dfx angucken. Das war genau das gleiche System wie jetz bei NVidia. Wir bekommen die Graka (oder bei 3dfx den Chip) nich besser hin, also packen wir 20 Stück davon rein. Die letzte Voodoo (wurd glaub ich nie wirklich gebaut) sollte 6 oder 8 GPUs haben :ugly: Und NVidia zeigt jetz genau die gleiche Entwicklung... Für mich ist das ein Geständnis, dass sie den Kampf verlieren.
Also ich finde 2 karten zusammenlaufen zu lassen, ist definitv eine Leistung. Sonst wuerds ja jeder machen. Somit ist es ja wohl auch ein Feature der Karte, bzw des 6800er (Nv40) Chips... (und kein technischer Rueckschritt...)

Was bin ich im Dreieck gesprungen, als ich zwei Voodoo2 Karten (Voodoo2 nix Voodoo5... Voodoo5 gabs nicht als SLI, wohl aenliche technik auf einem Board, aber trotzdem..) mal in meinen Rechner bauen durfte. Und zu dem Zeitpunkt war 3Dfx ja mal wohl nicht am Ende... (Das war einfach nur fettestens... Wenn ich mit nem Kumpel was Grafik-rechenintensives zocken wollte, also Singleplayer, hat einer seine Voodoo mitgebracht, SLI Kabel gezueckt und alles lief wie Butter! :D )

Zudem macht der Chip von Nvidia nicht wirklich einen technisch veralteten Eindruck...

Ob die Ati-Karten jetzt preisleistungstechnisch besser oder schlechter sind, oder man 1mal pro jahr oefters ins Kino kann, weil die Stromrechnung paar Cent billiger ist, oder man 1/2 Jahr frueher taub wird...

Definitiv ists technisch eine feine Leistung! :daumen: (meine Meinung und bestimmt nicht weil ich was gegen Ati hab. Wenn ich mir ne 9800er anschau und da im vergleich dazu ne 5900er... da hat Nvidia halt mal echt mist gebaut ... *g*)

edit: @vaarscha: hab grad deinen Post gesehn. ganz deiner Meinung!
 
X

XtReMe

Guest
Originally posted by Th4@30.06.04, 16:38
Dieser Beitrag war es nicht Wert gelesen zu werden! 25% Strafe + 1 Tag Sperre
hööö?
editierst du nun auch beiträge von anderen?! dachte ihr macht das nur, wenn man den zensieren muss,
wegen pornografischer bilder etc.
aber auch bei einem normalen post? :eek:

ps: ich hatte mal einen doppelpost am 17.4.04 , das is nun mehr als 2monate her, wann sinken meine verwarnungen...
ist echt kritisch schon :P
 

Blizzard

Pain Elemental
@Oglu ich meinte es in sofern, dass sie IMO teurer werden als früher und mit der FX Startprobleme hatten. Soetwas gab es früher in zeiten der GeForce 3 noch nicht! Hoffe ,dass ich das aufklären konnte ;)
 

aRKeycH

Mancubus

Die letzte Voodoo (wurd glaub ich nie wirklich gebaut) sollte 6 oder 8 GPUs haben
Auf ebay wurden mal die developer builds verschachert, in ner schicken Holzbox, mit Goldbeschriftung. :D

Aber für mich heisst, es auch nicht,das NVIDIA, da den grossen coupe landen würde, wie schon jemand sagte, mal ein nettes Sammlerstück.

Und wass 3d apps. betrifft, bin ich mir nicht so sicher, den ich denk mir kaum, das NVIDA sich den eigenen DCC bereich, durch ne SLI gamer Karte kaputtmachen wird.
 

HandD

Mancubus
Th4's Beitrag war weit über Gebühr aggressiv und beleidigend und fangt jetzt bitte nicht an, deswegen gegenseitig aufeinander rumzuhacken, sondern vertragt Euch...

So, und jetzt wieder kultiviert und zivilisiert zurück zum Thema, bitte! ;)

Der, die, das HandD
 

Th4

B.J. Blazkowicz
@crusader

nichts anderes als meine offene meinung dazu, aber naja manche meinen wir wären immer noch in der ddr wo man alles und jeden zensieren kann. Naja shice druff, beim nächsten mal flieg ich halt, is mir aber eigentlich auch shiceegal...

greetz
 

oglu

Knight
Originally posted by Blizzard@30.06.04, 20:13
@Oglu ich meinte es in sofern, dass sie IMO teurer werden als früher und mit der FX Startprobleme hatten. Soetwas gab es früher in zeiten der GeForce 3 noch nicht! Hoffe ,dass ich das aufklären konnte ;)
naja ich würde sagen diese zeiten sind vorbei...

aus meiner sicht sind die jungs von nvidia im moment ati einen schritt voraus... die von nvidia haben einen total neuen chip rausgebracht an dem sie jetzt feilen können... ati hingegen hat nur den alten chip bis auf letze ausgereizt... die müssen erstmal eine neue architektur rausbringen... aber das wird sich erst beim nächsten chip der beiden zeigen... ich würde aber sagen nvidia steht etwas besser da...
 

Blizzard

Pain Elemental
Von diesem Apekt hab ich das noch gar nicht beobachtet, aber du hast recht! Yeah, das freut mich wieder!
 
ich würde es wieder etwas anderes sehen. klar hat ati die alten chip bis aufs letzte ausgereizt. dann find ich es dennoch um so erstaunlicher das ati mit nem "alten" chip gegen nvidias neuen chip so problemlos mithalten kann ;)
 

oglu

Knight
jepp da muss ich dir recht geben... keiner sagt das ati seine hausaufgaben nicht gemacht hat... und jeder sollte das kaufen was er für das beste hält... mal sehen was wir nächstes jahr erleben dürfen... ist doch nur gut das es zwei gibt die sich streiten und den markt beleben...

ich denke mal das dieses SLI eher für den professionellen einsatz in workstations gedacht ist... da kostet ja eine grafikkarte alleine schon 1200€... geld spielt da keine rolle... sollen die jungs die für uns spiele entwickeln und geile animationen für film und fernsehen machen doch auch die beste hardware dafür bekommen...
 
Top