Gå til innhold

Se her alle som ikke får bestemt seg, FX5900 U vs 9800 Pro!


Anbefalte innlegg

Gjest Slettet-80wCWpIM

jeg ser ikke helt hva du mener, for artikkelen peker ikke på noe om at driver"juksingen" ( som du sikkert vet så ble det offesielt at det ikke var juks ) har noen spesiell innflytelse på game benchmarks, heller dog kun syntetiske. kan alltids hende jeg har gått glipp av noe tekst i testen siden den var på 16 sider og at du presterer å unnlate noe henvisning til noe litt mer spesifikt enn en test på 16 sider......

 

etter det jeg husker så har div hw sider lagt frem at ytelsesendringen som man opplever i spill i virkeligheten i forhold til syntetiske tester ikke har noe sammenheng med driver"juks"

 

jeg står fortsatt på mitt, ser man på alt totalt så får man mer for pengene med fx 5900 ultra i forhold til 9800 pro..

- rå ytelse

- bildekvalitet med ca ingenting å utsette på

- godt allround kort som også kan brukes til litt grafisk arbeid..

Lenke til kommentar
Videoannonse
Annonse

Atikkelen sier noe om hvordan kortene opfører seg dersom det ikke standard EXE filer /gamesbenchmarks som kjøres men derimot egenproduserte tester som hverken ATI eler Nvidia har muligheten til å optimalisere.

Som du helt sikkert vet er det ved start av slike standard benchmarks (som vidt utbredt) at driverne til Nvidia og ATI kjenner disse igjen og stiller seg inn for nettopp dette programet . testen jeg viser til er ikke kjent for driverne og derfor kjører de Raw ytelse.

For å dempe det hele litt kan jeg erkjenne at hverken det ene eller andre kortet er dårlige :wink:

Lenke til kommentar
jeg ser ikke helt hva du mener, for artikkelen peker ikke på noe om at driver"juksingen" ( som du sikkert vet så ble det offesielt at det ikke var juks ) har noen spesiell innflytelse på game benchmarks, heller dog kun syntetiske. kan alltids hende jeg har gått glipp av noe tekst i testen siden den var på 16 sider og at du presterer å unnlate noe henvisning til noe litt mer spesifikt enn en test på 16 sider......

 

etter det jeg husker så har div hw sider lagt frem at ytelsesendringen som man opplever i spill i virkeligheten i forhold til syntetiske tester ikke har noe sammenheng med driver"juks"

 

jeg står fortsatt på mitt, ser man på alt totalt så får man mer for pengene med fx 5900 ultra i forhold til 9800 pro..

- rå ytelse

- bildekvalitet med ca ingenting å utsette på

- godt allround kort som også kan brukes til litt grafisk arbeid..

 

Ikke kom her og si at det ikke er noe å utsette på bildekvaliteten til FX 5900.

 

Sjekk her.

Lenke til kommentar
After an absence of over eight months, NVIDIA has finally returned to the high-end segment with the GeForce FX 5900 Ultra. In fact, they?re not only back in the game, NVIDIA?s 256MB GeForce FX 5900 Ultra is the fastest graphics accelerator on the market, albeit with slightly lesser image quality than ATI?s RADEON 9800 PRO.

 

Lets look at the results, in real world game testing the GeForce FX 5900 Ultra finished on top in every benchmark except Tom Clancy?s Splinter Cell. This title in particular is clearly highly dependant on the graphics card?s fill-rate as evidenced by the older GeForce FX 5800 Ultra. With its 500MHz core clock, the GeForce FX 5800 Ultra finished ahead of all other graphics cards in our testing with Splinter Cell.

 

http://firingsquad.gamers.com/hardware/nvi...ltra/page19.asp

 

 

er det så mye mer å diskutere ?

kortene testes opp mot virkelige game benchmarks og resultatet er klart.

 

fatter ikke hvorfor dere gidder å diskutere dette noe mer når fakta ligger på bordet! begge kortene er sinnsykt rå, nvidia ligger et pittelite hode foran ati på ytelsen nå mens ati ligger et pittelite hode foran på bildekval..

 

Firingsquad skriver også: "Jaggies are more apparent on the GeForce FX 5900 Ultra, even in 4xAA mode. The easiest place to spot them is on the lead B-17 in the picture, right between the two engines. While this area is relatively free of jagged edges on the RADEON 9800 PRO card, GeForce FX 5900 Ultra is filled with them."

 

Det står ikke helt i stil til konklusjonen om bildekvalitet. ATI sin 4x gamma-corrected RGAA er overlegent nvida sin 4xOGAA. Det er ikke snakk om en pittelite forskjell man kan bagatellisere.

Lenke til kommentar

Jeg leste i et forum, det var vel på UKGamer.com, at en der ikke syns at det blir rettferdig å sammenligne ytelsen til kortene i 4X AA vs 4X AA(eller generellt to like "X"), siden Radeon kortet utfører mye mer AA enn FX...Vet ikke hva jeg skal si til det jeg....han har vel et poeng, men det kan godt hende at FX kortet bruker like mye/mer resurrser på å utføre AA, bare at kvaliteten rett og slett blir dårligere..

Lenke til kommentar
"]Jeg leste i et forum, det var vel på UKGamer.com, at en der ikke syns at det blir rettferdig å sammenligne ytelsen til kortene i 4X AA vs 4X AA(eller generellt to like "X"), siden Radeon kortet utfører mye mer AA enn FX...Vet ikke hva jeg skal si til det jeg....han har vel et poeng, men det kan godt hende at FX kortet bruker like mye/mer resurrser på å utføre AA, bare at kvaliteten rett og slett blir dårligere..

Når ATi sin 4x AA er bedre enn Nvidia sin 8x AA, og ATi sin er like rask

om ikke raskere enn Nvidia sin 4x, så kan man jo ikke trekke noen annen

konklusjon enn at Nvidia ligger et godt stykke bak når det gjelder AA.

Lenke til kommentar

dæven an døtte!

driverjuksingen hadde innflytelse på 3dmark, hadde ca null innflytelse på VIRKELIGE GAME BENCHMARKS som i motsetning til 3dmark måler virkelig ytelse istedenfor syntetisk!

enough said, det jeg sa stemmer

 

Det er ingen tvil at GF 59U er et bra kort, men ytelsen sett i spilltester er kanskje ikke helt korrekt....

 

B3D er det to tråder som tar for seg dette.

 

Den ene tar for seg UT2k3, og er her...

Den tar utgangspunkt i tester med Unwinder's AntiDetect script, og hvordan ytelsen plutselig synker... Etterhvert går den noe over i mer generell AF implementasjon hos ATI og Nvidia, men er fortsatt veldig interessant...

 

Den andre er mer generell ang. Unwinder's AntiDetect script og er her...

Man har dessverre ikke funnet ut om alle optimiseringene som blir blokkert er "ulovlige", eller om det også er gyldig optimiseringer som blir blokkert...

 

 

Ellers på temaet om juksing i spill, så kan man jo trekke frem SplinterCell og AA... Hos ATI dukker det opp artifacts hvis man kjører med AA, men det blir faktisk brukt AA... Nvidia sier de bruker AA, men gjør det ikke...

Dette gir jo følgelig store forskjeller på fps, men på et helt feil grunnlag...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...