MistaPi Skrevet 29. mars 2005 Del Skrevet 29. mars 2005 (endret) Du vet kanskje at ATI ikke kan bruke HDR i spillet Far Cry, men nVidia kan (støtter FP32 og FP16). Årsaken er at den HDR-en som der blir brukt er FP32 (PS3 full presisjon), mens ATI til nå bare har FP24 (PS2 full presisjon). Det betyr at ATI (fra R300) bare kan kjøre FP24 HDR, noe som ble vist i DX9-demostrasjon av Source (119 MB) til HL2 (spillet støtter ikke HDR enda). Hvis begge skal få full nytte av HDR må spillet ha to profiler (en for FP32 og en til FP24). Jeg vet ikke hvor mye ytelse du taper med FP24 HDR, men jeg vet at FP32 HDR reduserer ytelsen ganske mye. FP32 HDR er fremtiden, men jeg vet ikke i hvilken grad FP24 HDR vil bli støttet. I dag støtter ikke mange spill HDR. HDR-støtte vil bli mer vanlig i fremtiden (S.T.A.L.K.E.R, AOE3, ect.). FarCry bruker FP16 blending for HDR rendering. HDR uten FP blending er veldig tungvindt og begrensene så vi vil se veldig lite av HDR på hardware som ikke har støtte for FP blending. Source HDR demoen bruker INT16 for HDR. Begge kortene er bra, selv om 6800Ultra yter noe bedre. Nvidia har SM3, noe som nå begynner å bli støttet i nye spill og vil bli mer vanlig i fremtiden. Hvilkne av kortene som kommer best ut kommer i stor grad ann på test oppsettet. I høy oppløsning med AA/AF har X800XT nok et noe overtak overall. X800XT har for fremtiden (foruten 3Dc) en fordel med høyere fillrate og vertex ytelse. ATI har 3Dc (NVidia har iirc 50% 3Dc), noe som begynner å få støtte i enkelte spill. NV4x støtter ikke 3Dc, men det kom fram et texture format i en beta driver som fungerer som 3Dc, men med halvparten av komprimeringen som 3Dc. Om dette vil bli/er en offisiell funksjon vet jeg ikke, men jeg håper det. Med dette slipper spill utviklerene å behandle non-3Dc og 3Dc hardware forskjellig.. med mindre dem vil utnytte den ekstra komprimeringen 3Dc gir med mer detaljerte teksturer. Endret 29. mars 2005 av MistaPi Lenke til kommentar
guezz Skrevet 29. mars 2005 Forfatter Del Skrevet 29. mars 2005 (endret) Du vet kanskje at ATI ikke kan bruke HDR i spillet Far Cry, men nVidia kan (støtter FP32 og FP16). Årsaken er at den HDR-en som der blir brukt er FP32 (PS3 full presisjon), mens ATI til nå bare har FP24 (PS2 full presisjon). Det betyr at ATI (fra R300) bare kan kjøre FP24 HDR, noe som ble vist i DX9-demostrasjon av Source (119 MB) til HL2 (spillet støtter ikke HDR enda). Hvis begge skal få full nytte av HDR må spillet ha to profiler (en for FP32 og en til FP24). Jeg vet ikke hvor mye ytelse du taper med FP24 HDR, men jeg vet at FP32 HDR reduserer ytelsen ganske mye. FP32 HDR er fremtiden, men jeg vet ikke i hvilken grad FP24 HDR vil bli støttet. I dag støtter ikke mange spill HDR. HDR-støtte vil bli mer vanlig i fremtiden (S.T.A.L.K.E.R, AOE3, ect.). FarCry bruker FP16 blending for HDR rendering. HDR uten FP blending er veldig tungvindt og begrensene så vi vil se veldig lite av HDR på hardware som ikke har støtte for FP blending. Source HDR demoen bruker INT16 for HDR. Hehe, den samme diskusjonen vi hadde for noen uker siden i en annen tråd (Jeg). Men NV4x har kun støtte for FP16 blending og filtering. Dette er ikke korrekt. FarCry bruker FP32 HDR nettopp på grunn av at nVidia støtter dette. Hvis ikke må nVidia kjøre FP16 HDR (SM2/3 delvis presisjon), noe som er verre enn FP24 (SM2 full presisjon eller SM3 delvis presisjon). Intervju om FarCry (Cevat Yerli, President and CEO of CryTek) GeForce6 støtter FP32 Source HDR demoen brukte ikke engang FP presisjon, men INT16. Beklager, men jeg var overbevist om at det var FP24. Is the HDR rendering utilising float buffers? (i.e. will this work on NV hardware under the DX9 path if they haven't enabled float target support.) [Gary McTaggart] Actually, with ATI, we use 16 bit integer buffers. We don't use a float buffer. NVIDIA is adding support for buffers that are lower than 16-bit integer. FiringSquad: One new feature NVIDIA has added to GeForce 6800 is support for HDR. How does NVIDIA’s solution differ from ATI’s? Cevat Yerli: It’s more about the FP16 versus FP32 format. We’re using it [FP32] for HDR, which is not supported by ATI. That is to deliver very high image quality. But, I have to tell you HDR isn’t officially going to be part of the 1.2 patch. Begge kortene er bra, selv om 6800Ultra yter noe bedre. Nvidia har SM3, noe som nå begynner å bli støttet i nye spill og vil bli mer vanlig i fremtiden. Hvilkne av kortene som kommer best ut kommer i stor grad ann på test oppsettet. I høy oppløsning med AA/AF har X800XT nok et noe overtak overall. X800XT har for fremtiden (foruten 3Dc) en fordel med høyere fillrate og vertex ytelse. Dette innebærer minimum 1600x1200 med AA/AF. ATI takler dette bedre takket være, som du sier, høyere fillrate og vertex ytelse (har ikke noe særlig å si i dagen spill hvis en kjører 1280x1024 eller mindre med AA/AF). I høy oppløsning med AA/AF vil afaik X800XT generelt sett være litt bedre enn 6800Ultra. Høyere fillrate og vertex ytelse vil sikkert ha samme innvirkning ved lavere oppløsning når spill blir mer krevende. ATI har 3Dc (NVidia har iirc 50% 3Dc), noe som begynner å få støtte i enkelte spill. NV4x støtter ikke 3Dc, men det kom fram et texture format i en beta driver som fungerer som 3Dc, men med halvparten av komprimeringen som 3Dc. Om dette vil bli/er en offisiell funksjon vet jeg ikke, men jeg håper det. Med dette slipper spill utviklerene å behandle non-3Dc og 3Dc hardware forskjellig.. med mindre dem vil utnytte den ekstra komprimeringen 3Dc gir med mer detaljerte teksturer. Er ikke 50% 3Dc (2:1 mot ATIs 4:1) blitt integrert i senere drivere, noe jeg trodde? Jeg er ellers enig med deg. Endret 29. mars 2005 av guezz Lenke til kommentar
MistaPi Skrevet 29. mars 2005 Del Skrevet 29. mars 2005 (endret) FiringSquad: One new feature NVIDIA has added to GeForce 6800 is support for HDR. How does NVIDIA’s solution differ from ATI’s? Cevat Yerli: It’s more about the FP16 versus FP32 format. We’re using it [FP32] for HDR, which is not supported by ATI. That is to deliver very high image quality. But, I have to tell you HDR isn’t officially going to be part of the 1.2 patch. Som flere FarCry 1.3 omtaler har presisert så bruker spillet FP blending for HDR. http://www.beyond3d.com/forum/viewtopic.php?t=21567 Som nVidia selv sier er FP32 overkill for HDR. Er ikke 50% 3Dc (2:1 mot ATIs 4:1) blitt integrert i senere drivere, noe jeg trodde? Jeg er ellers enig med deg. Ikke 3Dc, men noe nVidia kaller for ATI2. Om dette er i den offisielle 7x series FW driveren er jeg usikker på. Endret 29. mars 2005 av MistaPi Lenke til kommentar
guezz Skrevet 29. mars 2005 Forfatter Del Skrevet 29. mars 2005 FiringSquad: One new feature NVIDIA has added to GeForce 6800 is support for HDR. How does NVIDIA’s solution differ from ATI’s? Cevat Yerli: It’s more about the FP16 versus FP32 format. We’re using it [FP32] for HDR, which is not supported by ATI. That is to deliver very high image quality. But, I have to tell you HDR isn’t officially going to be part of the 1.2 patch. Som flere FarCry 1.3 omtaler har presisert så bruker spillet FP blending for HDR. http://www.beyond3d.com/forum/viewtopic.php?t=21567 Som nVidia selv sier er FP32 overkill for HDR. Da er altså Cevat Yerli ute på en liten bærtur? Hvis jeg forstår det riktig bruker spillet HDR med 16-bit frame buffer blending, mens eldre kort (medregnet R4XX) ville ha brukt 8-bits per color component? Dette innebærer at FP24 og FP16/32 er presisjonen til SM2/3, mens HDR er 16/8-bit? Er ikke 50% 3Dc (2:1 mot ATIs 4:1) blitt integrert i senere drivere, noe jeg trodde? Jeg er ellers enig med deg. Ikke 3Dc, men noe nVidia kaller for ATI4. Om dette er i den offisielle 7x series FW driveren er jeg usikker på. Jeg regnet med at nVidia ikke kaller det for 3Dc, men jeg visste ikke hva nVidia kaller sin metode. Lenke til kommentar
MistaPi Skrevet 29. mars 2005 Del Skrevet 29. mars 2005 Hvor har du 8bit ifra? HDR ville nok ha sett veldig crappy ut med bare INT8 (32bit). INT16 er 16bit per kanal, 64bit totalt, men SM2.0/3.0 hardware er ikke begrenset til INT16 med HDR. Men med FP blending er NV4x er begrenset til FP16. Lenke til kommentar
guezz Skrevet 29. mars 2005 Forfatter Del Skrevet 29. mars 2005 Hvor har du 8bit ifra? For a little more effort, programmers and artists can start to make use of more precision and do high dynamic range rendering (HDR). This is enabled by the 16-bit floating point texture filtering and frame buffer blending. While older hardware only allowed texturing and blending with 8-bits per color component, 16-bit floating point allows a much larger range of color and brightness. Games will look less "flat" and have more feeling of depth and clarity. HDR ville nok ha sett veldig crappy ut med bare INT8 (32bit). INT16 er 16bit per kanal, 64bit totalt, men SM2.0/3.0 hardware er ikke begrenset til INT16 med HDR. Men med FP blending er NV4x er begrenset til FP16. Ok, da er jeg med deg. Lenke til kommentar
Aurgjelme Skrevet 29. mars 2005 Del Skrevet 29. mars 2005 X700XT er nå faset ut til fordel for x800. Hvis du finner x700XT i en nettbutikk skal jeg inkludere kortet. ehhrm..x700xt i en nettbutikk Lenke til kommentar
guezz Skrevet 29. mars 2005 Forfatter Del Skrevet 29. mars 2005 X700XT er nå faset ut til fordel for x800. Hvis du finner x700XT i en nettbutikk skal jeg inkludere kortet. ehhrm..x700xt i en nettbutikk Ser det, men får de inn kortet? ... Hvis de mot formodning får det på lager, må jeg nesten stå for det jeg skrev. Lenke til kommentar
MistaPi Skrevet 29. mars 2005 Del Skrevet 29. mars 2005 En webshop som har X700XT som vare linje beviser ingen ting, spesielt når det ikke har noen kort inne. X700XT er utgått. The Toxic X700 PRO distinguishes itself from other X700 PRO’s by utilising the ASIC’s for the now defunct X700 XT SKU and although Sapphire are not able to sell the boards preset to X700 XT speeds these boards are able to operate at, or beyond, X700 XT speeds. Lenke til kommentar
Halvt horn ost skinka piffi varmt Skrevet 3. april 2005 Del Skrevet 3. april 2005 : w00t: Lenke til kommentar
Simkin Skrevet 8. april 2005 Del Skrevet 8. april 2005 leste den testen hardware hadde gjort av X800XL kortene akkurat nå, og stusser litt på att de kaller disse kortene "middelklasse kort" ,disse er vel strengt tatt i "topp klassen" eller i high end? de er jo på høyde med 6800GT og ikke mange fps under XT i noen tester? Lenke til kommentar
guezz Skrevet 8. april 2005 Forfatter Del Skrevet 8. april 2005 leste den testen hardware hadde gjort av X800XL kortene akkurat nå, og stusser litt på att de kaller disse kortene "middelklasse kort" ,disse er vel strengt tatt i "topp klassen" eller i high end? de er jo på høyde med 6800GT og ikke mange fps under XT i noen tester? X800XL er absolutt high-end, men kort som 6800LE, 6600GT og X800SE er high-end-delen av midrange. Lenke til kommentar
MistaPi Skrevet 8. april 2005 Del Skrevet 8. april 2005 (endret) Skjermkort som er priset $250-350 regnes med som "performance-mainstream", så X800XL kommer inn under dette segmentet. Endret 8. april 2005 av MistaPi Lenke til kommentar
Mr. Jefferson Skrevet 17. april 2005 Del Skrevet 17. april 2005 (endret) Hei Jeg skal anskaffe meg en ny data i disse dager, jeg har bestemt meg for å gå for et SLI basert hovedkort, ASUS A8N-SLI Deluxe. Har dere noen råd og vink til hvilke skjermkort jeg bør velge? Jeg tipper jeg kun vil gå for et skjermkort i denne omgang og senerer kjøpe et tilsvarende skjermkort senere. Jeg har regnet ut jeg kan bruke ca 3000 +/-. Et nvidia 6800 GT eller ULTRA hadde ikke vært dumt. En annen ting, er CLUB3D kjent for å lage gode skjermkort? Det er som en vill jungel der ute å finne riktig(e) skjermkort(er). Jeg takker for all hjelp EDIT: Jeg fant ut at dette innlegget muligens ikke burde være i dette emnet. Endret 17. april 2005 av Mr. Jefferson Lenke til kommentar
Gjest Slettet+9018234 Skrevet 20. april 2005 Del Skrevet 20. april 2005 Jeff: Har du i det hele tatt lest denne tråden!?!?! Lenke til kommentar
wiak Skrevet 22. april 2005 Del Skrevet 22. april 2005 du må fixe litt på ATI sine Linux Drivere alså nå har ATi lansert nye linux drivere som har støtte til AMD64 osv dem har Bra ytelse også (gammelt nytt men hehe) Lenke til kommentar
lucky666 Skrevet 27. april 2005 Del Skrevet 27. april 2005 Har et brukt Ati x800SE på hånda (3 mnd ) gammelt.Selger forlanger 1000 kr. for det.Høres ut som en bra pris.Bør jeg gå for det? Lenke til kommentar
Skeptos Skrevet 9. mai 2005 Del Skrevet 9. mai 2005 Hvilke funksjoner har Sapphire Radeon X800XL, PowerColor Radeon X800XL og Asus Radeon X850XT PE? Da tenker jeg på hvilken Anti Aliasing de har, om de har 3Dc og om de har Digital Vibrance. Lenke til kommentar
MistaPi Skrevet 9. mai 2005 Del Skrevet 9. mai 2005 Alle X8x0 og X700 kortene har 3Dc. Ingen av dem har Digital Vibrance Control (dette er en nVidia funksjon), men dem har gode justerings muligheter for farger i driveren. Dem støtter alle 2x, 4x, og 6x rotated grid gamma-corrected multisampling anti-aliasing og 4x, 8x og 12x temporal AA i driver. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå