Sollte ich entgegen aller Erwartungen in die Beta kommen, werde ich mit folgendem System gamen:
Intel P4 HT 2800 MHz
Radeon 9800 Pro 128mb
1024 Mb Ram PC400 Dual Channel
Und das ganze geniess ich mit 5.1 Sound....
Sollte ich entgegen aller Erwartungen in die Beta kommen, werde ich mit folgendem System gamen:
Intel P4 HT 2800 MHz
Radeon 9800 Pro 128mb
1024 Mb Ram PC400 Dual Channel
Und das ganze geniess ich mit 5.1 Sound....
Iksar sind böse, sie sind verschlagen, und wenn sie dich fressen, wird keiner nach dir fragen
Warum kein FX53 ? Weil der teurer und langsamer ist ... und das unter WinXP. Der Opteron übertrifft bei weniger Cache aber sonst gleicher Maschinenausstattung meine Workstation mit Dual Xeon 3,2 Ghz... und die wiederum hängt den FX53 um Meilen ab.Zitat von Arthatas
Ach sind Schwanzvergleiche schön
Aber wichtiger wäre JETZT DIE BETA !
Thodian
Gerade:
Athlon 2600+
Geforce 5700LE (bisschen schlechter als ti4200)
512mb ddr-ram
Demnächst:
X800 Pro
1024mb ddr-ram :geist:
Iiiiiiiiiich spiel am Notebook:
3.0 GHz Intel
768 MB 333MHz DDR RAM
ATI Mob Radeon 9600 Pro (auf Taktung von ner 9600 XT und genau gleichen Benchmarks :D)
und öhm... ich würd gern in ner Auflösung von 1400x1050 spielen wenns geht, weil dann hab ich bestes Bild und auch mal Platz für die ganzen Chatfenster :D (also bei Saga of Ryzom gings ;))
zu den High-Details.
Natürlich sollte man die nicht immer aus haben, aber in EQ1 hatte ich die Details immer low und auf raids oder in großen Gruppen hab ich die spelleffekte ausmachen müssen.
Hat den Spaß net gedrückt ;) hat ihn sogar gehoben indem es kein Lag mehr gab ;)
Trelonist
Wer kämpft kann verlieren, wer nicht kämpft hat verloren.
PCI Express wird gar nichts bringen, zumindest nicht kurz- und mittelfristig. Zur Zeit gibts ja kaum einen Unterschied zwischen AGP 4x und AGP 8x - eine weitere Verdoppelung der Brandbreite wird also vorerst mal gar nichts bringen, schon gar keinen "gewaltigen" Performanceschub. Ich persönlich finde PCI Express eigentlich in erster Linie deswegen interessant, weil sich dann nicht alle PCI-Karten die selben mickrigen 133 mb/s Bandbreite teilen müssen.Zitat von Arthatas
Das funktioniert so nicht. Eine Grafikkarte kann die CPU nicht "entlasten" und umgekehrt, weil beide unterschiedliche Aufgaben von der Applikation zugewiesen bekommen. Wie genau das Leistungsverhalten einer Applikation ist, hängt in erster Linie davon ab, wie diverse Dinge von den Entwicklern implementiert wurden - und in der Regel gibt es dafür sehr gute Gründe. So werden z.B. bei der UT-Engine angeblich mehr als 80% der Geometrieberechnungen von der CPU ausgeführt.Hoffentlich nur eher sekundär. Ich hoffe mal stark, dass die Skalierbarkeit ausreicht, damit die CPU etwas mehr entlastet wird.
Ich zumindest würde mich darauf Einstellen, daß die Prozessorleistung, neben der Grafikkarte, ein sehr wichtiger Faktor sein wird.Aber anscheinend will das Entwicklerteam sowohl Grafikkarte als auch die CPU bis an ihre Grenzwerte bringen.
Offizieller Board-Gnom
Tja, vielleicht sollte man mal aufräumen mit den Gerüchten, was Grafikkarten können und was nich:
Die Technik, die ALLE Grafikkarten mittlerweile innewohnt, heißt "Transform&Lighting" (NEIN, NICHT LIGHTnING! Das heißt Blitz, das andere Ausleuchtung!)
Lighting dürfte klar sein: Statt der CPU berechnet die Grafikkarte Auswirkungen von Leuchteffekten bis zu einer gewissen Zahl an möglichen Hardware- Lichtquellen (X800 müsstens 24 Stück sein glaub ich, normal is so um die 8-16 Lichter)
Transform: Nein, das heißt nicht, dass die gesamte Geometrie eines Bildes von der Grafikkarte gerechnet wird, das heißt was ganz anderes, die GraKa berechnet nämlich nur die "Transformation", d.h. (wer sich noch an Matrizenrechnung erinnert) es rechnet ein Bild aus dreidimensionalen Koordinaten um auf eine 2dimensionale Fläche, so wie wir das fertige Bild eben am Bildschirm sehen. Nach diesem Prozess werden erst die ganzen Pixelshading- Effekte, Texturen und bla hinzugefügt, da diese dann weniger Rechenzeit benötigen (was man im fertigen Bild nicht sieht, braucht auch nicht berechnet zu werden...). Die Vertex- Berechnung an sich, also die Positionen der Eckpunkte der Polygone in einem 3dimensionalen Bild rechnet immer noch die CPU, auch wenn das mittlerweile vielleicht nur noch ca. 25% der gesamt- Bildberechnung ausmacht, kann sie trotzdem zum Flaschenhals werden. Ein Vertex- Shader hilft nur bei der Berechnung polygonal genau gleicher Objekte, indem er Parallelkalkulation verschiedener Objekte in bestimmten Animationsphasen übernimmt (z.B. 2000 Soldaten, die sich grad gegenseitig kloppen, die machen das ja nich synchron :D2 )
So meinte ich das auch. Laut Toms Hardware Guide steckt in PCI Expres jedoch viel Potential. In absehbarer Zeit wird sich aber da aber kaum was tun.Zitat von Cuilean
http://www.de.tomshardware.com/graph...xpress-13.html
T&L ist doch Käse von Vorgestern. Grafikkarten seit der GF3 haben keine T&L-Einheit mehr, da ist die T&L-Funktionalität als Vertex-Programm über die Vertexshader-Einheiten implementiert, stellt also allenfalls noch ein kleines Subset dar. Klar können sie immer noch Transformieren und Beleuchten, aber die Fähigkeiten der Grafikkarten sind Sachen Geometrieberechnung sind seit dem immens gestiegen.Zitat von hellclaw
Offizieller Board-Gnom
Geht ja ums Prinzip, will den Leuten eben nicht die Illusion nehmen, dass die Grafikkarte alles macht. T&L- Einheiten nehmen auf Grafikkarten nur noch nen kleinen Teil im Prozi wech, dem Pixelshading gehört wohl die Zukunft, denn was man mit Multitexturing, Normalmapping und Pixelshaded Postprocessors alles erreichen kann, kann man sich mit Polygonen sparen.
Hach, was waren das noch für Zeiten, als es hieß: Meine GeForce 1 hat sogar DDR- Speicher! Und kann 20 Millionen Polygone auf einmal berechnen! Mittlerweile sind die dinger glaub ich auf 400 oder noch mehr Polys/sec angewachsen... :/
Lesezeichen