Gå til innhold

Kjøpeguiden: 6600GT - GTX280 / HD4870X2 (24.11)


guezz

Anbefalte innlegg

Du vet kanskje at ATI ikke kan bruke HDR i spillet Far Cry, men nVidia kan (støtter FP32 og FP16). Årsaken er at den HDR-en som der blir brukt er FP32 (PS3 full presisjon), mens ATI til nå bare har FP24 (PS2 full presisjon). Det betyr at ATI (fra R300) bare kan kjøre FP24 HDR, noe som ble vist i DX9-demostrasjon av Source (119 MB) til HL2 (spillet støtter ikke HDR enda). Hvis begge skal få full nytte av HDR må spillet ha to profiler (en for FP32 og en til FP24).

 

Jeg vet ikke hvor mye ytelse du taper med FP24 HDR, men jeg vet at FP32 HDR reduserer ytelsen ganske mye.

 

FP32 HDR er fremtiden, men jeg vet ikke i hvilken grad FP24 HDR vil bli støttet. I dag støtter ikke mange spill HDR. HDR-støtte vil bli mer vanlig i fremtiden (S.T.A.L.K.E.R, AOE3, ect.).

FarCry bruker FP16 blending for HDR rendering. HDR uten FP blending er veldig tungvindt og begrensene så vi vil se veldig lite av HDR på hardware som ikke har støtte for FP blending.

Source HDR demoen bruker INT16 for HDR.

 

Begge kortene er bra, selv om 6800Ultra yter noe bedre. Nvidia har SM3, noe som nå begynner å bli støttet i nye spill og vil bli mer vanlig i fremtiden.

Hvilkne av kortene som kommer best ut kommer i stor grad ann på test oppsettet. I høy oppløsning med AA/AF har X800XT nok et noe overtak overall. X800XT har for fremtiden (foruten 3Dc) en fordel med høyere fillrate og vertex ytelse.

 

ATI har 3Dc (NVidia har iirc 50% 3Dc), noe som begynner å få støtte i enkelte spill.

NV4x støtter ikke 3Dc, men det kom fram et texture format i en beta driver som fungerer som 3Dc, men med halvparten av komprimeringen som 3Dc. Om dette vil bli/er en offisiell funksjon vet jeg ikke, men jeg håper det. Med dette slipper spill utviklerene å behandle non-3Dc og 3Dc hardware forskjellig.. med mindre dem vil utnytte den ekstra komprimeringen 3Dc gir med mer detaljerte teksturer.

Endret av MistaPi
Lenke til kommentar
Videoannonse
Annonse
Du vet kanskje at ATI ikke kan bruke HDR i spillet Far Cry, men nVidia kan (støtter FP32 og FP16). Årsaken er at den HDR-en som der blir brukt er FP32 (PS3 full presisjon), mens ATI til nå bare har FP24 (PS2 full presisjon). Det betyr at ATI (fra R300) bare kan kjøre FP24 HDR, noe som ble vist i DX9-demostrasjon av Source (119 MB) til HL2 (spillet støtter ikke HDR enda). Hvis begge skal få full nytte av HDR må spillet ha to profiler (en for FP32 og en til FP24).

 

Jeg vet ikke hvor mye ytelse du taper med FP24 HDR, men jeg vet at FP32 HDR reduserer ytelsen ganske mye.

 

FP32 HDR er fremtiden, men jeg vet ikke i hvilken grad FP24 HDR vil bli støttet. I dag støtter ikke mange spill HDR. HDR-støtte vil bli mer vanlig i fremtiden (S.T.A.L.K.E.R, AOE3, ect.).

FarCry bruker FP16 blending for HDR rendering. HDR uten FP blending er veldig tungvindt og begrensene så vi vil se veldig lite av HDR på hardware som ikke har støtte for FP blending.

Source HDR demoen bruker INT16 for HDR.

Hehe, den samme diskusjonen vi hadde for noen uker siden i en annen tråd (Jeg).

Men NV4x har kun støtte for FP16 blending og filtering.

 

Dette er ikke korrekt. FarCry bruker FP32 HDR nettopp på grunn av at nVidia støtter dette. Hvis ikke må nVidia kjøre FP16 HDR (SM2/3 delvis presisjon), noe som er verre enn FP24 (SM2 full presisjon eller SM3 delvis presisjon). Intervju om FarCry (Cevat Yerli, President and CEO of CryTek)  GeForce6 støtter FP32

 

Source HDR demoen brukte ikke engang FP presisjon, men INT16.

 

Beklager, men jeg var overbevist om at det var FP24.  :(

 

Is the HDR rendering utilising float buffers? (i.e. will this work on NV hardware under the DX9 path if they haven't enabled float target support.)

 

[Gary McTaggart] Actually, with ATI, we use 16 bit integer buffers. We don't use a float buffer. NVIDIA is adding support for buffers that are lower than 16-bit integer.

FiringSquad: One new feature NVIDIA has added to GeForce 6800 is support for HDR. How does NVIDIA’s solution differ from ATI’s?

 

Cevat Yerli: It’s more about the FP16 versus FP32 format. We’re using it [FP32] for HDR, which is not supported by ATI. That is to deliver very high image quality. But, I have to tell you HDR isn’t officially going to be part of the 1.2 patch.

 

Begge kortene er bra, selv om 6800Ultra yter noe bedre. Nvidia har SM3, noe som nå begynner å bli støttet i nye spill og vil bli mer vanlig i fremtiden.

Hvilkne av kortene som kommer best ut kommer i stor grad ann på test oppsettet. I høy oppløsning med AA/AF har X800XT nok et noe overtak overall. X800XT har for fremtiden (foruten 3Dc) en fordel med høyere fillrate og vertex ytelse.

Dette innebærer minimum 1600x1200 med AA/AF. ATI takler dette bedre takket være, som du sier, høyere fillrate og vertex ytelse (har ikke noe særlig å si i dagen spill hvis en kjører 1280x1024 eller mindre med AA/AF). I høy oppløsning med AA/AF vil afaik X800XT generelt sett være litt bedre enn 6800Ultra. Høyere fillrate og vertex ytelse vil sikkert ha samme innvirkning ved lavere oppløsning når spill blir mer krevende.

 

ATI har 3Dc (NVidia har iirc 50% 3Dc), noe som begynner å få støtte i enkelte spill.

NV4x støtter ikke 3Dc, men det kom fram et texture format i en beta driver som fungerer som 3Dc, men med halvparten av komprimeringen som 3Dc. Om dette vil bli/er en offisiell funksjon vet jeg ikke, men jeg håper det. Med dette slipper spill utviklerene å behandle non-3Dc og 3Dc hardware forskjellig.. med mindre dem vil utnytte den ekstra komprimeringen 3Dc gir med mer detaljerte teksturer.

Er ikke 50% 3Dc (2:1 mot ATIs 4:1) blitt integrert i senere drivere, noe jeg trodde? Jeg er ellers enig med deg.

Endret av guezz
Lenke til kommentar

FiringSquad: One new feature NVIDIA has added to GeForce 6800 is support for HDR. How does NVIDIA’s solution differ from ATI’s?

 

Cevat Yerli: It’s more about the FP16 versus FP32 format. We’re using it [FP32] for HDR, which is not supported by ATI. That is to deliver very high image quality. But, I have to tell you HDR isn’t officially going to be part of the 1.2 patch.

Som flere FarCry 1.3 omtaler har presisert så bruker spillet FP blending for HDR.

 

http://www.beyond3d.com/forum/viewtopic.php?t=21567

 

Som nVidia selv sier er FP32 overkill for HDR.

 

Er ikke 50% 3Dc (2:1 mot ATIs 4:1) blitt integrert i senere drivere, noe jeg trodde?  Jeg er ellers enig med deg.

Ikke 3Dc, men noe nVidia kaller for ATI2. Om dette er i den offisielle 7x series FW driveren er jeg usikker på.

Endret av MistaPi
Lenke til kommentar

FiringSquad: One new feature NVIDIA has added to GeForce 6800 is support for HDR. How does NVIDIA’s solution differ from ATI’s?

 

Cevat Yerli: It’s more about the FP16 versus FP32 format. We’re using it [FP32] for HDR, which is not supported by ATI. That is to deliver very high image quality. But, I have to tell you HDR isn’t officially going to be part of the 1.2 patch.

Som flere FarCry 1.3 omtaler har presisert så bruker spillet FP blending for HDR.

 

http://www.beyond3d.com/forum/viewtopic.php?t=21567

 

Som nVidia selv sier er FP32 overkill for HDR.

Da er altså Cevat Yerli ute på en liten bærtur? Hvis jeg forstår det riktig bruker spillet HDR med 16-bit frame buffer blending, mens eldre kort (medregnet R4XX) ville ha brukt 8-bits per color component? Dette innebærer at FP24 og FP16/32 er presisjonen til SM2/3, mens HDR er 16/8-bit? :dontgetit:

 

Er ikke 50% 3Dc (2:1 mot ATIs 4:1) blitt integrert i senere drivere, noe jeg trodde?  Jeg er ellers enig med deg.

Ikke 3Dc, men noe nVidia kaller for ATI4. Om dette er i den offisielle 7x series FW driveren er jeg usikker på.

Jeg regnet med at nVidia ikke kaller det for 3Dc, men jeg visste ikke hva nVidia kaller sin metode.

Lenke til kommentar
Hvor har du 8bit ifra?
For a little more effort, programmers and artists can start to make use of more precision and do high dynamic range rendering (HDR). This is enabled by the 16-bit floating point texture filtering and frame buffer blending. While older hardware only allowed texturing and blending with 8-bits per color component, 16-bit floating point allows a much larger range of color and brightness. Games will look less "flat" and have more feeling of depth and clarity.
HDR ville nok ha sett veldig crappy ut med bare INT8 (32bit). INT16 er 16bit per kanal, 64bit totalt, men SM2.0/3.0 hardware er ikke begrenset til INT16 med HDR. Men med FP blending er NV4x er begrenset til FP16.

Ok, da er jeg med deg. :)

Lenke til kommentar

En webshop som har X700XT som vare linje beviser ingen ting, spesielt når det ikke har noen kort inne. X700XT er utgått.

 

The Toxic X700 PRO distinguishes itself from other X700 PRO’s by utilising the ASIC’s for the now defunct X700 XT SKU and although Sapphire are not able to sell the boards preset to X700 XT speeds these boards are able to operate at, or beyond, X700 XT speeds.
Lenke til kommentar

leste den testen hardware hadde gjort av X800XL kortene akkurat nå, og stusser litt på att de kaller disse kortene "middelklasse kort" ,disse er vel strengt tatt i "topp klassen" eller i high end? de er jo på høyde med 6800GT og ikke mange fps under XT i noen tester?

Lenke til kommentar
leste den testen hardware hadde gjort av X800XL kortene akkurat nå, og stusser litt på att de kaller disse kortene "middelklasse kort" ,disse er vel strengt tatt i "topp klassen" eller i high end? de er jo på høyde med 6800GT og ikke mange fps under XT i noen tester?

X800XL er absolutt high-end, men kort som 6800LE, 6600GT og X800SE er high-end-delen av midrange.

Lenke til kommentar
  • 2 uker senere...

Hei

 

Jeg skal anskaffe meg en ny data i disse dager, jeg har bestemt meg for å gå for et SLI basert hovedkort, ASUS A8N-SLI Deluxe. Har dere noen råd og vink til hvilke skjermkort jeg bør velge? Jeg tipper jeg kun vil gå for et skjermkort i denne omgang og senerer kjøpe et tilsvarende skjermkort senere. Jeg har regnet ut jeg kan bruke ca 3000 +/-. Et nvidia 6800 GT eller ULTRA hadde ikke vært dumt. En annen ting, er CLUB3D kjent for å lage gode skjermkort? Det er som en vill jungel der ute å finne riktig(e) skjermkort(er). :)

 

Jeg takker for all hjelp

 

EDIT: Jeg fant ut at dette innlegget muligens ikke burde være i dette emnet.

Endret av Mr. Jefferson
Lenke til kommentar
  • 2 uker senere...

Alle X8x0 og X700 kortene har 3Dc. Ingen av dem har Digital Vibrance Control (dette er en nVidia funksjon), men dem har gode justerings muligheter for farger i driveren. Dem støtter alle 2x, 4x, og 6x rotated grid gamma-corrected multisampling anti-aliasing og 4x, 8x og 12x temporal AA i driver.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...