Gå til innhold

x800 knuser alt i 3dmark'05


Grillbabe

Anbefalte innlegg

DX9 er da ikke basert på kun Pixel Shaders?

Nei, men det er en stor del av D3D9. Det jeg mente med "ren" DX9 benchmark var at det er ingen shadere som er under SM2.0.

 

Det er da også "feature tests" om fillrate, vertex i tilleg til PS?

De forskjellige feature testene har ikke noe innvirkning på total scoren.

 

Det er såvidt jeg har sett (av de korta jeg har fra både Nvidia og ATI) særlig på PS at Nvidia "lagger" mye i forhold til ATI (og tildels "singel fillrate").

En test som *tilsynelatende* kun tester en funksjonalitet i HW på ett kort virker "feil" for meg...

Men dette har jeg nok ikke forsket godt nok på...

Fremtidens spill vil nok være "all about the shaders" så det er dette 3DMark05 legger mest vekt på. Shader ytelsen vil da være en viktig faktor for hvordan de diverse skjermkortene vil yte i fremtidens spill. Men når det er sagt så tror jeg nok spill utviklerene vil behandle FX59x0 som et DX8.1 kort istedet for å kryple ytelsen til kortet med DX9 shadere slik at det fremdeles vil være raskere enn R9600XT, men da kanskje ikke på samme premiser.

 

The new 3DMark engine is a next generation shader engine, with a wide variety of shaders dynamically built and runtime compiled. This is how we believe future game engines will work, and some developers have already confirmed it.
Lenke til kommentar
Videoannonse
Annonse

Siden det er sånn at ATi og Nvidia har "fått" sin egen codepath i 3DMark05, så åpner jo det for at de kan utnytte arkitekturen sin best mulig i denne benchmarken..og det er vel bra det? :)

 

Vil vel tro at Geforce 6xxx vil etterhvert få "støtte" i driverne sine for å aktivt bruke Ultrashadow 2?(Fx serien med Ultrashadow også kanskje?), dersom det er noe sted i benchmarken man kan dra nytte av dette da.

 

Fremtidens spill vil nok være "all about the shaders" så det er dette 3DMark05 legger mest vekt på. Shader ytelsen vil da være en viktig faktor for hvordan de diverse skjermkortene vil yte i fremtidens spill.

Er det på en måte et slags "dårlig" tegn for 3Dc? :ermm: Siden Futuremark fokuserer mye på shadere, og "enkle" textures..?

 

Denne testen er bra for fremtidens shader-intensive spill ja, i dagens spill har jeg til gode å se R9600xt ligge foran mitt 5900U..(snakker da om utgitte spill *host* :blush: )

 

Når det gjelder Vertex Shadere, er det noe som blir mye brukt/vil bli mye brukt i spill? I mine øyne så har liksom all fokusen vært på Pixel Shadere, og i VS-tester er jo fps'en veldig lav..?(er vel pga at det er færre VS units da men..)

 

Ati har vel vært best på Vetrex Shadere siden R8500?

Lenke til kommentar
hmm Mistapi

 

funker den nye driveren (6677) bedre i spill? hva er dårligere bedre, aner du noe om fokjellen?

 

for om den nyeste driveren yter bedre i spill, legger jeg selvsagt inn den på nytt

nvidia 66.70 er veldig bra ytelse på.spilte doom 3 i 1200x1600 med 50-60 i fps,fikk også mere fps i far cry også.

 

http://www.ntcompatible.com/story34707.html

Endret av Traxco
Lenke til kommentar
,01/10/2004 : 02:38]Siden det er sånn at ATi og Nvidia har "fått" sin egen codepath i 3DMark05, så åpner jo det for at de kan utnytte arkitekturen sin best mulig i denne benchmarken..og det er vel bra det? :)
I want to remind all readers that 3DMark is a benchmark, and is NOT optimized in the same fashion as games are. There are no lighter code paths for value and legacy hardware, all systems produce the same rendering.

 

The shaders are dynamically built and runtime compiled using the most optimal target for the hardware in use. We strongly believe that this is a structure future game-engines will be using because of its flexibility.

 

Vil vel tro at Geforce 6xxx vil etterhvert få "støtte" i driverne sine for å aktivt bruke Ultrashadow 2?(Fx serien med Ultrashadow også kanskje?), dersom det er noe sted i benchmarken man kan dra nytte av dette da.

3DMark05 bruker ikke lenger stencil shadows, men shadows maps. Som også John Carmac har kommentert er stencil volumes dead-end siden det spiser opp enormt mye fillrate.

 

Er det på en måte et slags "dårlig" tegn for 3Dc? :ermm: Siden Futuremark fokuserer mye på shadere, og "enkle" textures..?

Per-pixel normal maping er en del av SM. Dette er noe 3DMark05 bruker mye av og det er noe spill vil bruke mye av. UnrealEninge3 vil f.eks satse tung på "polybumping" og off-set maping (som er samme teknikk som normal maping).

Lenke til kommentar
3Dmark skuffer mer og mer i mine øyne.

Har alltid heller testet fps i spill fremfor å tro på 3Dmark sine g**e påstander.... men kul demo HADDE dem.. men de siste årene har d gått ned der og.

 

:thumbdown:

Fatter ikke heller ikke hvorfor hele pc-verden skal lage så mye fuzz om en demo fra noen fulle finner :!:

 

FPS-målinger i reelle spille er så klart det beste, siden det til syvende og sist er på grunn av spill at man kjøper seg grafikk-kort til 3-4-5.000 vil jeg tro?!

 

Scora litt over 4.500 med en [email protected] og Nvidia 6800GT@Ultra. 65.73 driver.

 

:w00t: K

Endret av Krapfoss
Lenke til kommentar

Vel, demoer smo er laget av fulle folk eller ei, er de kule så er de kule! =) (Demoene altså). Jeg synes Demoen til Futuremark ikke kan sies å være en Scene demo, heller en intro av marken. Krever alt for mye for å være noe særlig, og faktisk etterhva jeg synes så er grafikken på den demoen veldig lik den typen vi har i DooM 3 og FarCry. (Det er min mening!). Futuremark demoen kan på ingen måte sammenlignes demoer fra aardbei, Farb-Rausch, ASD, etc.

Lenke til kommentar

ATI will come to the conclusion that its X800XT PE card is a better performer than two Nvidia 6800 Ultra SLI cards, but may forget to remind you that Nvidia cards are default clocked while its is heavily overclocked. If 806MHz clock is not high, I don’t know what is. The default clock of RX800XT PE is only 520MHz. (tatt ut i fra

http://www.theinquirer.net/?article=18801 )

 

Dere må ta med de viktige poengene

 

i bunn å grunn er det ganske lik ytelse denne gangen

 

Det er ingen som eier eller herjer, det er bare altfor mange som er hjerne vasket, akkurat som Ati\Nvidia prøver på.

 

I mellom tiden er det greit å tenke på at det ikke betyr en shitt

Endret av simalarion
Lenke til kommentar

Mon tro om NV50/R520 blir så kraftige at de ganske lett ruller forbi 10000 marks i 3DMark05..? :cool:

 

EDIT: Det var noen som sa at Ati's Catalyst "A.I" drivere ville gjøre susen..hva er så spesielt med disse driverne? (Tenker på "A.I")

Endret av [-GoMp-]
Lenke til kommentar
Mon tro om NV50/R520 blir så kraftige at de ganske lett ruller forbi 10000 marks i 3DMark05..?  :cool:

Det vil nok neppe R520 gjøre hvis ryktene om at det allerede kommer tidlig neste år er sanne, men det tviler jeg sterkt på.

Når det gjelder NV50 så går det rykter om dette skal være nVidia's neste nye design DX10/WGF part, dette vil da mao ikke konkurere direkte med R520. Men derimot skal NV47 - en 24 pipeline NV40 videreføring - ta den plassen. Dette må selvfølgelig tas med en stor klype salt, men med tanke på at nVidia neppe trenger et nytt design før DX10/WGF nærmer seg lansering så høres dette ikke så usannsynlig ut.

 

EDIT: Det var noen som sa at Ati's Catalyst "A.I" drivere ville gjøre susen..hva er så spesielt med disse driverne? (Tenker på "A.I")

http://www.extremetech.com/article2/0,1558...2129TX1K0000532

 

http://www.beyond3d.com/misc/catai/

Lenke til kommentar

Jeg vet hvorfor jeg bruker dem (konkurranseinstinkt og nygjerrighet), jeg vet hva jeg kan forvente (jeg vet hva jeg har råd til av PC-utstyr), men jeg har enda ikke skjønt poenget med benchmark`ene for skjermkort, og da tenker jeg spesielt på 3DMark-testene. Man skal teste ytelsen til "sitt eget" skjermkortet med dem, men disse testene kan man jo lese om i allverdens review`er (bokstavelig talt).

 

PCMark er mye mer interessant, for den måler i større grad konfigurasjonen til PCen: alt som gjør en PC unik.

 

Overklokking av skjermkort gjør selvfølgelig 3DMark-serien mye mer interessant, men i bunn og grunn så vil de fleste som vet om testen, og som bruker den, bli misfornøyd med hardwaren sin. Det er ikke bare trist, det er provoserende. 3DMark er IKKE gratis, for det medfører tilleggskostnader for mange av brukerne.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...