3DMark 05

Heute kam mir die neue PC Games Hardware ins Haus geflattert (ja, bin Abonnent) und was seh ich da? Ein Artikel zu 3DMark 05 :yeah:. Aus diesem Anlass eröffne ich den offiziellen 3DMark 05 Thread.

Hier kommt alles rein, was mit 3DMark 05 zu tun hat, also:
- Screenshots
- Links zu Preview Artikeln
- Benchmarkergebnisse, wenns raus kommt
- Meinungen zu 3DMark 05

Wer einen Extra Thread zu 3DMark 05 eröffnet, wird per PM darauf hingewiesen und der Thread wird hier rein verschoben.

3DMark 05 soll Mitte September 2004, also in zwei Wochen, erscheinen.

Hier mal ein Screenshot aus der PC Games Hardware, fotografiert mit meiner Handy-Kamera. Leider gehen da sehr viele Details unter:
 

Attachments

  • post-6-1093973479.jpg
    post-6-1093973479.jpg
    71.3 KB · Views: 828

DoomHeidi

Pain Elemental
Ich krieg die Motten :eek: :eek:

Wie gut, dass ich es mir verkniffen hab, ne 6800 GT zu kaufen, ich warte jetzt bis Mitte nächsten Jahres und machn Komplettupgrade damit ich den 3DMark flüssig krieg' *g*

Ähm... wenn man den bis dahin überhaupt schon flüssig kriegt
 
Hier mal Auszüge aus dem Interview der PC Games Hardware mit Nick Renqvist, Patric Ojala und Tero Sarkkinen von Futuremark:

[...]

PCGH: Wird eine Grafikkarte mit Shader 3.0 Geschwindigkeitsvortiel haben?

Nick: Es ist noch zu früh, um das zu sagen. In einigen Situationen kann es für eine Shader-3.0-Karte Vorteile geben. Wie groß dieser Vorteil ist, hängt von der Szene ab (Materialien, Zahl der Lichtquellen, Länge der Shader) - und davon, ob die Shader händisch für Shader Modell 3 optimiert wurden. Im 3DMark05 wird die Bildqualität für Shader Modell 2 und 3 die gleiche sein.

Patric: Wir haben mit verschiedenen Shader-3.0-Optimierungen herum experimentiert, aber uns noch nicht entschieden, welche in der finalen Version integriert sein werden. Der Leistungsvorteil, den wir ermittelt haben, ist aber kleiner als erwartet.

PCGH: Ist eine 64-Bit-Version von 3DMark05 geplant? Wie sind eure Erfahrungen mit 64-Bit-Code?

Nick: Zuerst brauchen wir eine öffentlich zugängliche und finale 64-Bit-Windows-Version auf dem Markt, dann können wir die Frage richtig beantworten. Wir haben einige Erfahrungen mit 64-Bit-Code, da wir für AMD eine 64-Bit-Demo ("Herbert the Herder") programmiert haben.

PCGH: Wird der 3DMark05 von der höheren Bandbreite von PCI Express profitieren?

Nick: Die Spieletests sind so gestaltet, dass sie in eine Grafikkarte mit 128 MByte RAM passen. Wenn die Inhalte einiger Spieletests nicht ganz in 128 MByte passen, wird eine PCI-Express-Karte Vorteile haben. Allerdings wird dann eine 256-MByte-Karte immer noch die schnellste Lösung sein. Wir bieten einen Featuretest, der den Grafikbus ziemlich stark beansprucht, und der zeigt ganz klar die Vorteile von PCI Express.

[...]
 
Ochaje ;)
War gerade glücklich über meine 11599 PKT in 2003
Und was werd ich dan wieder im 2K5 haben
Ich schätze mal so "2000" Pkt wenns hoch kommt.


Naja Egal

Ati X800 Rockt ;)

Und weis was die leistet
 

Bördi

Baron
ach ja, jetzt geht die mär mit "optimierten" treibern wieder los :)

wer schummelt besser ? ati oder nvidia ? :D
 
Originally posted by Bördi@31.08.04, 22:49
ach ja, jetzt geht die mär mit "optimierten" treibern wieder los :)

wer schummelt besser ? ati oder nvidia ? :D
Das Schummeln, das Nvidia beim 3DMark 03 betrieb, wird beim 3DMark05 nicht mehr möglich sein.

Denn für 3DMark 03 wurde seitens Nvidia einfach ein Shader umgeschrieben. In 3DMark05 werden die Shader dynamisch zur Laufzeit erzeugt. D.h. man kann nicht mehr an den Shadern rumpfuschen.
 

PGJ

B.J. Blazkowicz
Wie? Reicht etwa eine 6800GT nicht? Lohnt es sich denn garnicht mehr die High-End Grafikkarten zu kaufen? :(
 
Naja, so wie's aussieht brauchts da schon 2 GeForce 6800 Ultra Karten im SLI-Verbund, um auf halbwegs flüssige Frameraten zu kommen. Aber schließlich soll der Bench moderne Karten ja auch bis an die Schmerzgrenzen treiben und zeigen, welche Grafik in künftigen Spielen möglich sein kann. Ich denk mal, dass 3DMark 05 ungefähr auf dem grafischen Niveau der Unreal 3 Engine liegen wird.
 

PGJ

B.J. Blazkowicz
Aber wenn es auf dem grafischen Niveau von der Unreal 3 Engine liegt, dann müsste eigentlich die 6800GT/Ultra noch gut laufen, dann diese beiden Karten wurden mit der Unreal 3 Engine beta vorgestellt! Das wäre ja unlogisch, wenn Nvidia das mit Rucklern darstellen würde!
 
Originally posted by PGJ@02.09.04, 11:06
Aber wenn es auf dem grafischen Niveau von der Unreal 3 Engine liegt, dann müsste eigentlich die 6800GT/Ultra noch gut laufen, dann diese beiden Karten wurden mit der Unreal 3 Engine beta vorgestellt! Das wäre ja unlogisch, wenn Nvidia das mit Rucklern darstellen würde!
Mit 15-20 fps lief anscheinend die Präsentation der Unreal 3 Engine. Da die 3DMark05 Engine nicht auf optimale Leistung, sondern auf einen fairen Vergleich ausgelegt ist, ist das nicht so außergewöhnlich, dass 3DMark05 etwas langsamer läuft.

Was die Features angeht, dürften 3DMark05 und die Unreal 3 Engine vorraussichtlich vergleichbar sein. Allerdings verwendet die Unreal 3 Engine vermutlich noch höher auflösende Texturen. PC Games Hardware hat ja in einem Interview rausgefunden, dass die Tests von 3DMark05 in eine Grafikkarte mit 128 MB Grafikspeicher passen. Die Unreal 3 Engine Entwickler gaben dagegen bekannt, dass sie für volle Details eine Grafikkarte mit 1 GB Grafikspeicher empfehlen.
 

sav

Cacodemon
Schade, die Pics vom Leak sind nicht mehr auf der Page. Aber ich hab mir auch die PCGH geholt (wie immer, ist einfach ein sehr gutes Heft) und hab den Artikel natürlich auch interessiert gelesen. Der Release eines neuen 3DMark ist doch immer wieder etwas besonderes. :)
 
Ich hatte nun eine 6 Megapixel Digicam zur Verfügung und hab damit ein hochauflösendes Foto vom PC Games Hardware 3DMark05 Screenshot gemacht. Mit der Schärfe hab ichs nicht ideal hinbekommen, da man für perfekte Schärfe den Blitz verwenden muss. Dann ist das Bild aber überbelichtet. Achtung: 1 MB!

-> 3DMark05 Screenshot <-

Hier noch eine Vorschau in 800x600:

CIMG0593_s.jpg
 

GamlerHart

Cyberdemon
Hui sieht vielversprechend aus. Ich freu mich schon auf den Augenschmaus...und das geruckel.

Wie gross diese "Demo" wohl sein wird? Solche hochauflönde Texturen brauchen ja jene Menge speicher.

Wieso machen die Eigtlich kein Game-Engine aus ihren Demo-Engines. Wie man sieht, wiesen sie ja, wie mit dem Zeugs umzugehen? Oder ist es umgekehrt, das sie Engine's lizensieren, um daraus was zu basteln? Sorry, bin hier nicht so fachkundig. :??:
 

Mad

Commander Keen
Originally posted by Spasstiger+31.08.04, 17:47--></div><table border='0' align='center' width='95%' cellpadding='3' cellspacing='1'><tr><td>QUOTE (Spasstiger @ 31.08.04, 17:47)</td></tr><tr><td id='QUOTE'> <!--QuoteBegin-oglu@31.08.04, 19:32
http://www.tcmagazine.info/modules.php?op=...rticle&sid=6564
Geilo, die Screens von dem Leak! Die hab ich bisher noch nicht gesehen. Sieht echt absolut hammer aus. Meine arme Radeon 9700 ;(.

EDIT: 5-15 fps auf ner GeForce 6800, wahrscheinlich ne Ultra? :eek: [/b][/quote]
Hi
Echt ich glaube du übertreibst da ein bisschen, wenn eine 6800 ULRTA oder GT nur 5-15 fps schaffen sollte, dann würden ja die Vorgänger Karten überhaupt nicht mehr laufen. :gaga:
Der Benchmark würd hart werden aber so hart nun auch wieder nicht. :evilgrin:
 
Originally posted by Mad+19.09.04, 08:23--></div><table border='0' align='center' width='95%' cellpadding='3' cellspacing='1'><tr><td>QUOTE (Mad @ 19.09.04, 08:23)</td></tr><tr><td id='QUOTE'>
Originally posted by Spasstiger@31.08.04, 17:47
<!--QuoteBegin-oglu

Geilo, die Screens von dem Leak! Die hab ich bisher noch nicht gesehen. Sieht echt absolut hammer aus. Meine arme Radeon 9700 ;(.

EDIT: 5-15 fps auf ner GeForce 6800, wahrscheinlich ne Ultra? :eek:
Hi
Echt ich glaube du übertreibst da ein bisschen, wenn eine 6800 ULRTA oder GT nur 5-15 fps schaffen sollte, dann würden ja die Vorgänger Karten überhaupt nicht mehr laufen. :gaga:
Der Benchmark würd hart werden aber so hart nun auch wieder nicht. :evilgrin: [/b][/quote]
Ne GeForce 6800 wars definitiv, sieht man auf den Screens. Nur obs ne Ultra, ne GT oder ne Standard 6800 war geht aus den Screens nicht hervor.
 
Top