Gå til innhold

6800 gt Ukens tilbud på Komplett


Anbefalte innlegg

Videoannonse
Annonse

Thrug, både ATI og NVIDIA optimaliserer driverne sine for forskjellige spill, så at NVIDIA jobber med å bedre ytelsen i HL2 er ikke noe jeg tviler så på. Om nvidia har sendt brev eller ikke blir derfor uinteressant.

 

Noen som vet hva som følger med i retail gainward 6800 GT som en da ikke får med i bulk? Er det omtrent samme bundle som gainward 6800 ultra coolfx så er vel ikke det akkurat noe å grine over: coolfx bundle

Lenke til kommentar
Thrug, både ATI og NVIDIA optimaliserer driverne sine for forskjellige spill, så at NVIDIA jobber med å bedre ytelsen i HL2 er ikke noe jeg tviler så på. Om nvidia har sendt brev eller ikke blir derfor uinteressant.

 

Vel, det simalarion skrev var at de har samme problem som med FX serien, altså at de har svært lav ytelse i DX9 spill i forhold til konkurrerende ATI løsninger. Nå tror jeg ikke det stemmer da. Det meste jeg har lest gir inntrykk av at X800 Pro og 6800 GT er rimelig jevngode.

Lenke til kommentar
Flott pappa figur du gjør der Woilef

 

Om fler føler seg personlig støtt pga dette skriv personlig melding

 

Angåendet fx har jeg seff sett det - men det hele går ut på at de har samme problemet med directx-9 i 6800 serien oxo - i et brev fra Nvidia til Valve skriver de svart på hvitt at de jobber hardt med den nyeste driveren for å få bedre ytelse i HL2 (spekulerer i om dette er grunnen til utsettelsen). Mulig jeg tar feil, men ingen grunn til å bli sinna :thumbup:

Jeg tror denne testen er uenig med deg angående det du kaller "directx9-problem", noe som ikke kan bety mye annet enn problem med shaderene.

 

"Problemet" i forrige generasjon var delvis at nvidia hadde støtte for fragment shader precision på 16bit og 32bit, mens ati bare støttet 24bit. Så om man kjørte med nvidia-spesifikke shadere ville nvidia kjøre raskest men med lavere nøyaktighet enn ati. Om man kjørte med generelle ARB2 shadere ville nvidia kjøre på full 32bit og dermed være treigere, men mer nøyaktig enn ati som konverterte alt til 24bit. Link.

Lenke til kommentar
Slår x800pro i hva? Benckhmarks igjen?

 

Siste nytt er nemlig at Hl2 - Doom3 nesten ikke drar på Nvidias sine kort pga directx-9. Mye derfor et titlene utsatt fordi nvidia jobber på spreng med den nye driveren sin.

 

Så har du lyst å få flotte tall i 3d tester eller spille?

 

Hvor har du det fra? Link?

DOOM 3 er ikke et DX9 spill, det er visst OpenGL? Veldig troverdig det du kommer med her altså.. :roll:

Nesten ikke drar..HAH! Når GeForce 6 serien har 4x shader-ytelse over GeForce FX serien, så er det _Hvertfall_ spillbart!

Lenke til kommentar

Mye krangling her ja.

 

Jeg bestemte meg etterhvert etter mye bouncing fra ati over til nvidia og tilbake. Det falt glatt på POV 6800GT når jeg så at de kom med et 6800GT kort til overkommelig pris (3995 på netshop).

 

De fleste testene jeg har sett så slår 6800GT x800, noen tester slår seff x800 6800GT. Men tror nok ikke jeg kommer til å merke stor forskjell. Grunnen for at jeg valgte dette er kun pga produsent og ingenting annet. Har et POV kort i maskinen min nå og er fornøyd x10 med det.

 

POV 6800 GT er på lager på netshop nå så jeg skjønner ikke masingen om at kortene ikke er tilgjengelige :hmm:

Lenke til kommentar
The significant issue that clouds current ATI / Nvidia comparisons is fragment shader precision. Nvidia can work at 12 bit integer, 16 bit float, and 32 bit float. ATI works only at 24 bit float. There isn't actually a mode where they can be exactly compared. DX9 and ARB_fragment_program assume 32 bit float operation, and ATI just converts everything to 24 bit. For just about any given set of operations, the Nvidia card operating at 16 bit float will be faster than the ATI, while the Nvidia operating at 32 bit float will be slower. When DOOM runs the NV30 specific fragment shader, it is faster than the ATI, while if they both run the ARB2 shader, the ATI is faster

Hmm...så det kan hende ATi bevisst ikke la inn støtte for DX 9.0c(les: 32bit er et krav) for å kunne tjene ytelse på det? haha - sleipt! :p

Lenke til kommentar
Eh.... nei..

 

Lager: Bekreftet 05.07.2004

Sorry de gikk tydeligvis rett ut igjen etter at de kom inn. De kom inn i dag (29.07) og for ut like fort da.

 

Mitt ble ihvertfall sendt med hele PC pakka i dag :D

Lenke til kommentar
You can't really think about spending 400 bucks on a competing Radeon x800 pro without at least considering the equal priced GeForce 6800 GT as this product is very VERY fast. And hey, there already have been some reports on 300 USD deals for the GT.

 

Where the GeForce FX series was a bit sober, this is raw and nice. This feels like it was designed from day one to be the "sports car" among graphics cards.  Let me state it this way, if you plan to buy a GeForce FX 5950 Ultra at 350-380 USD in the next weeks instead of the GeForce 6800 GT then I will personally choke you to death (Editor: and I will beat you to death with a floppy cable). Wait a few weeks on availability and go for the 6800 GT, comprende amigo?

Lenke til kommentar

simalarion..

er ikke derfor hl 2 er forsinket,hvis du har fulgt litt med :

 

http://www.gamer.no/art.php?artikkelid=8324

 

men hvis jeg kjøper et 6800 gt kort og får 10 fps mindre

enn ati x800 pro i hl 2 kan jeg leve med det.

 

når doom 3 kommer ut er det ati-kortet som får mindre fps

enn 6800.

 

er jo ingen hemlighet at open-gl driverene til ati forbredes.er dumt og spekulere om doom 3 blir forsinket av den grunn..

Endret av Traxco
Lenke til kommentar
,30/06/2004 : 03:19]
The significant issue that clouds current ATI / Nvidia comparisons is fragment shader precision. Nvidia can work at 12 bit integer, 16 bit float, and 32 bit float. ATI works only at 24 bit float. There isn't actually a mode where they can be exactly compared. DX9 and ARB_fragment_program assume 32 bit float operation, and ATI just converts everything to 24 bit. For just about any given set of operations, the Nvidia card operating at 16 bit float will be faster than the ATI, while the Nvidia operating at 32 bit float will be slower. When DOOM runs the NV30 specific fragment shader, it is faster than the ATI, while if they both run the ARB2 shader, the ATI is faster

Hmm...så det kan hende ATi bevisst ikke la inn støtte for DX 9.0c(les: 32bit er et krav) for å kunne tjene ytelse på det? haha - sleipt! :p

FP32 er ikke et krav nei og selvfølgelig er dette et bevist valg av ATi. Hvorfor er dette sleipt? Jeg antar at det er mindre sleipt å tilby FP32, skryte uhemmet av høyere presisjon enn konkurenten for så å bytte ut shadere med lav presisjon FP16 versjoner? Dessuten er det kun UnrealEninge3 som har vist noe (minor) artifacts med FP24 pga veldig komplekse shadere.

Endret av MistaPi
Lenke til kommentar
du frekke mann,hvorfor skriver du denne posten bare for og

kritisere nvidia kortene ?

 

du kan jo prøve og spille doom 3(alfa,beta) med 1200x1600 og x4AA/AF

og vise meg fps.

 

Frekk? jeg diskuterer ting jeg har lest i dag.

 

For det første holdt jeg på å kjøpe Nvidia denne gang, men de kom for sent til Norge. For det andre må dere få av dere skylappene å ikke tro at det finnes en ati - Nvidia gjeng (der gruppementaliteten er stor og alle slåss blindt for sin leder). Det gjør ikke det, det er slik media ønsker at det skall være. Les fakta, kjøp det beste og drit i hvilket produkt merke du har inne i pcen din. Vi burdet være glad for at Nvidia har en konkurent, da får vi bedre kort

støttes

Lenke til kommentar
FP32 er ikke et krav nei og selvfølgelig er dette et bevist valg av ATi. Hvorfor er dette sleipt? Jeg antar at det er mindre sleipt å tilby FP32, skryte uhemmet av høyere presisjon enn konkurenten for så å bytte ut shadere med lav presisjon FP16 versjoner? Dessuten er det kun UnrealEninge3 som har vist noe (minor) artifacts med FP24 pga veldig komplekse shadere.
Interpolated color format

SM 2.0: 8-bit integer minimum

SM 3.0: 32-bit floating point minimum

(Higher range and precision color allows high-dynamic range lighting at the vertex level)

Det er et krav for å offisielt støtte DirectX 9.0c, er det ikke det da?

 

Kanskje sleipt ikke var det lureste ordet å bruke da folk muligens tar dette personlig, men la oss se på dette:

Ati konverterer FP32bit shadere til 24bit. ok. Det gir fordeler ved konvertering fra 32bit, bedre ytelse? og det er så å si ikke mulig å se forskjell i bildekvaliteten, som du sier. Men som du også sa, så blir jo det kjipt i UnrealEngine3, at det oppstår litt artifacts. Det er jo ikke ønskelig(selv om den er langt unna, og innen den tid har vel ATi SM 3.0/4.0 støtte uansett.)

Men det må da gi ulemper å konvertere fra 16bit til 24 bit?!(hvis dette blir gjort, det må det jo, for ifølge quoten min så konverterer ATI "evertything to 24bit") Preformance drop, god dag?

 

Jeg syns kanskje teorien til nVidia virker bedre altså, å bruke en mix av 16bit og 32bit, altså bruke 16bit der man ikke har behov for 32bit, i stedet for å konvertere alt til 24bit? Da kan man oppnå den bildekvaliteten man ønsker, og hvis man velger å bruke 16bit på ting der det ikke trengs høyere presisjon, så "tjener" man jo ytelse på det! :) Eller hva tror du? :ermm:

Lenke til kommentar

Ok, driter i benchmarks - hvordan yter de i spill? - skal søke litt å se om jeg finner noe :yes:

 

Kjører alt på fult i FarCry windows + i spillet på 1600 - 1200 får 30 fps jevnt, ved 1024 får jeg 60 fps og det med en middelmådig pc. Det er slike tester jeg ønsker å høre om.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...