Gå til innhold

TEST: Creative GeForce FX5900 Ultra


Anbefalte innlegg

Husk at jeg snakker om "praktiske" spillsituasjoner her. Du mener altså at du kan se forskjell mellom et ATI- og et NVIDIA-kort som begge er satt til f.eks. 4xAA under spilling i UT2003?

Dette er vel på mange måter samme konklusjon som HardOCP kom med i sin siste UT2003 oppdatering. I praksis kan jeg si meg enig: i et spill som UT2003 er det antagelig slett ikke subtile forskjeller i IQ som ligger lengst fremme i bevisstheten til spillerne. Det poenget blir imidlertid på siden av det som er det sentrale: i en sammenligning av fps som i utgangspunktet gir seg ut for å være en apples-to-apples sammenligning, så bør det som et minimum poengteres at testen benytter en driverversjon for det ene produktet som tar snarveier og reduserer IQ. Alternativt så får man skru av trilinear i den produsenten som opererer med en ærlig driver og benchmarke begge kortene med bilinear.

 

Når det gjelder om man ser forskjell på IQ i spill med trilinear vs bilinear, så er vel svaret både og. Noen brett er det vanskelig, andre steder er det langt tydeligere. I UT2003 er det kanskje visuelt akseptabelt, andre spill (som Elite Force 2) er det definitivt ikke. Moralsk galt blir det uansett.

 

Som nevnt er det er grundig notert at flere skjermbilder er ønsket. Ut over dette kan jeg si at vi nok aldri kommer til å gå så teknisk til verks at vi analyserer skjermbilder i photoshop o.l., for å finne forskjeller mellom filtering-teknikker etc. Dette har vi rett og slett ikke kapasitet til (dere er hjertelig velkomne til å bidra her! :)). De som interesserer seg i dybden for dette kan f.eks. besøke Beyond3D (som du nevner) og Digit-Life.

Vanskelig dilemma. Hvor dypt skal man gå i en review for å unngå å bli lurt av produsent...? Tror ikke det behøver være så vanskelig. Skjermbilder er et godt utgangspunkt. Et annet forholdsvis enkelt alternativ kan være å benytte mindre vanlige spill (i kombinasjon med Fraps), de hardware-stedene som har gjort dette til nå har på mange måter hatt de reviewene som i etterkant har vært minst diskutable.

Lenke til kommentar
Videoannonse
Annonse
Ikke bli hårsår, om du leste posten min før denne, så ville du sett at jeg ville vite hva triks dere gjør for å få 1000 poeng dårligere score i 3dmark03, med så å si samme oppsett...

Dette svarte jeg på i mitt første svar til deg:

 

Hvis FX5900 scorer 5785 poeng i 3Dmark03, har de benyttet den "gamle" versjonen, altså ikke den nye 330-builden. Antar det resultatet du refererer til her beskriver seg fra et par måneder tilbake i tid.

 

Mao de resultatene du refererer til er fremkommet før 330-patchen fra Futuremark ble tilgjengelig.

 

 

hvordan kunne fx 5800 få så høg score i 3d mark(2001-2003)da `?

kjørte dere uten 330 patchen,eller brukte dere andre drivere ?

 

det er vel en 2-3 stk på furumet som har fx 5900(ultra,non ultra)de får jo over 5000 !

og hvorfor refererer dere med gamle tester på ati 9800pro ?(hvis jeg forsto det riktig)

Lenke til kommentar
hvordan kunne fx 5800 få så høg score i 3d mark(2001-2003)da `? kjørte dere uten 330 patchen,eller brukte dere andre drivere ?

330-patchen er benyttet for FX 5800 Ultra også ja. FX 5800 Ultra er jo faktisk et kort som yter temmelig godt, til tross for mye varme og støy! :)

 

det er vel en 2-3 stk på furumet som har fx 5900(ultra,non ultra)de får jo over 5000

Jaha, flott for de! Sikkert mulig å få over 6000 også med vannkjøling og heftig OC.

 

og hvorfor refererer dere med gamle tester på ati 9800pro ?(hvis jeg forsto det riktig)

R9800 Pro ble testet i midten av mai. Det er disse tallene vi sammenligner med.

Lenke til kommentar
Ok, du er skuffet fordi vi ikke kom til samme konklusjon som en av de andre nettsidene? Litt pussig å høre at du stoler så mye på en site som Toms Hardware Guide forresten (les mer f.eks. her).

 

Ikke bli hårsår, om du leste posten min før denne, så ville du sett at jeg ville vite hva triks dere gjør for å få 1000 poeng dårligere score i 3dmark03, med så å si samme oppsett... Og når jeg leser omtrent samme resultatene på anand og tom, så lurer jeg litt på hvorfor de har en 10/20% ytelsesforskjell på kortene i flere av testene... Og ikke kom med gammelt skremselspropaganda, det sømmer seg dårlig å prøve å fremheve seg selv på den måten. Jeg er fullt klar over situasjonen på toms, som jeg sa i den andre posten, og det er nettopp denne favoriseringen av engines og benchmark-programmer som plager meg. Men når testen er lik, og avviket er stort? Og selvfølgelig ser jeg ikke bare på en test, selvfølgelig ser jeg ikke bare på 3dmark scoren når jeg bestemmer meg hvilket kort jeg skal kjøpe meg, men en forskjell på ca 25% vil jeg finne en _TESKJE_ oppsiktsvekkende. Jeg etterlyser flere faktorer man kan ta i betraktning. Gjerne ta med flere spill som de sier, er mer interessert i hvordan de forksjellige "engines" funker på kortet, enn 4 forskjellige oppløsninger. For min del kunne dere godt ha listet opp alle services dere kjørte på testpcen, jeg ønsker all informasjon. Reagerer selvsagt på de avvikene jeg ser i testene, hva hadde ellers vitsen med å lese de vært? Når det ikke blir forklart inngående, så må man sette spørsmål til de "usynlige" forskjellene.

Brukte HW.no samme oppsett som de andre testene da? Kanskje de andre hadde raskere maskiner ellers (raskere CPU, ram og hovedkort?) - da er det klart de får høyere score!

 

Du er flink du Howard 8) *gir is for at du er så tolerang* ;)

Lenke til kommentar

En grei oppsummering av ståa i øyeblikket: Elite Bastards

 

Dette er et problem som går rett inn i AA/AF delen av omtalen og som effektivt diskvalifiserer enhver meningsfylt konklusjon fra tallene hw.no publiserer. Poenget om "meget god AA ytelse" som hw.no trekker fram i konklusjonen har også et mildt sagt tynt bevisgrunnlag og bør fjernes.

 

Er det å gå for langt å skulle be hw.no (i integritetens navn) vurdere å putte inn en liten "disclaimer" for den uvitende leser om at tallene som blir gitt for AA/AF ytelse i UT2003 slett ikke er representative for den generelle ytelsen til Geforce FX-kortene?

Lenke til kommentar
Er det å gå for langt å skulle be hw.no (i integritetens navn) vurdere å putte inn en liten "disclaimer" for den uvitende leser om at tallene som blir gitt for AA/AF ytelse i UT2003 slett ikke er representative for den generelle ytelsen til Geforce FX-kortene?

 

Da må de gjøre det ved testing av Radeon kort (og evt andre kort) også - for ellers blir det sett på som "favorisering av andre merker" og "Aha! Dere har blitt bestukket av ATi!" - noe som kan føre til at ALL troverdighet mistes...

Og for Guds skyld, skriv mer lettlest norsk enn det mortenj gjør!

Lenke til kommentar

Lurt triks med den register endringen for å klokke kortet uten ekstra progz! Riktignok en noe eldre artikkel - men funket bra.

Hater å måtte ha 1000(kankje litt overdrevet...) små programmer for å få gjort saker og ting..

 

Ellers så skummet jeg bare gjennom resten av innholdet... Gidder ikke samlenligne alle grafene.... Jeg gjør som norsklæreren min lærte meg - "Les forord og konklusjon, da har du fått med deg det viktigste"

Lenke til kommentar
"]Da må de gjøre det ved testing av Radeon kort (og evt andre kort) også - for ellers blir det sett på som "favorisering av andre merker" og "Aha! Dere har blitt bestukket av ATi!" - noe som kan føre til at ALL troverdighet mistes... Og for Guds skyld, skriv mer lettlest norsk enn det mortenj gjør!

Ehhh, hva mener du? Vi tar dette veldig enkelt for sikkerhets skyld:

 

* Omtalen bruker nvidia driver 44.03

* Denne driveren har en liten bug/"feature": I UT2003 skrur den av trilinear filtrering selv om det står påskrudd både i spill og i kontrollpanel

* Siden trilinear filtrering har en ganske stor effekt på fps, så medfører dette at Geforce FX får en kunstig høy score i dette spillet.

 

Når hw.no sammenligner Geforce FX med andre kort, så har altså Geforce FX fps-score oppnådd med bilinear filtrering mens Geforce 4 og Ati har fps-score oppnådd med trilinear filtrering. Dermed kommer Geforce FX mer gunstig ut enn den i virkeligheten skulle. Bra for nVidia. Men det er dårlig for deg som kjøper som blir misledet til å tro at Geforce FX er raskere enn den egentlig er. Så er det ikke da naturlig at testen enten gjøres påny med en tidligere driverutgave, eller at hw.no gjør leseren oppmerksom på at driveren har dette problemet?

 

Hvorfor skulle det være negativt for troverdigheten å være ærlig?

 

(Og hvor er moroa i å skrive korte lette setninger...??? Nei, alvorlig, beklager om egen språkbruk tidvis blir omstendelig og langdryg...)

 

EDIT: For de som lurer på om trikset i driver v44.03 har noen effekt på bildekvalitet, så anbefales en titt på dette bildet. (Bildet sammenligner driver v43.45 og v44.03)

Lenke til kommentar
Så er det ikke da naturlig at testen enten gjøres påny med en tidligere driverutgave, eller at hw.no gjør leseren oppmerksom på at driveren har dette problemet?

Jo... :)

 

* Omtalen bruker nvidia driver 44.03

* Denne driveren har en liten bug/"feature": I UT2003 skrur den av trilinear filtrering selv om det står påskrudd både i spill og i kontrollpanel

* Siden trilinear filtrering har en ganske stor effekt på fps, så medfører dette at Geforce FX får en kunstig høy score i dette spillet.

Det vet jeg godt, og jeg er helt enig i det du sier.

OK, den driveren "jukser" i UT2003 (noe som visstnok er rettet opp i 44.65?). Men i andre spill har man jo ikke skjekket etter juks. Kan jo hende at nVidia jukser i andre spill med den driveren? eller: Det kan hende ATI jukser i andre spill med trillinear-billinear? Man kan jo ikke vite før det er skjekket...

 

Uanz så ser tross alt screenisene jvlig bra ut :p

Lenke til kommentar

Hmm, jeg har selv GeForce FX 5900 Ultra, og med mitt system får jeg litt i overkant av 6000 (6200 eller.no tror jeg) uten noen som helst form for overklokking eller tweaking.

 

Systemet mitt består av:

Abit IC7-G (den jevla Northbridgeviften skal bort :evil: )

p4 3 GHz

TwinX 1024 Corsair PC3700 Platinum (2,5-3-3-6 som spd virker det som etter å ha resettet cmos - skulle ikke spd være 3-4-4-8 på 233 MHz fsb?)

Creative GeForce FX5900 Ultra (med en sticker hvor det står made by nVidia bakpå... tydeligvis det ferdige reference boardet).

Maxtor S-ATA 160 GB.

 

Jeg må få tak i en registreringskode slik at jeg kan få opp resultatet på internett.

 

Jeg kjørte cpu hastigheten opp til 233x15 = 3495 MHz og minnet til samme (dette er jo spd for minnet...), og kjørte grafikkortet på 510-930, da fikk jeg litt over 7000, men vil ikke kjøre på den hastigheten nå i sommervarmen - har ikke vannkjøling (ennå).

 

Men som sagt, jeg må skaffe en Serial-key til programmet, eller så kan jeg ta screenshots og legge ut her?

 

Forresten, har hatt kortet i nesten 2 uker nå, er veldig fornøyd :)

Det eneste de trakk frem i Hardware.no testen som jeg personlig synes var negativt ved kortet var at det ikke kunne overklokkes så mye. Prisen... vel, kunne vært billigere, men men, samme det.

Lenke til kommentar

Alle de som sier ATI har finere bildekvalitet enn Nvidia; har dere sett begge kortene i aksjon?? Tenkte ikke det nei.

 

Howard - kunne du ha sett forskjell på hva som var ATI/Nvidia- kortet på en blind- test? Jeg har selv FX5800U, men jeg har dessverre ikke sett eller testet R9700/9800 Pro.

 

Det er i alle fall fin grafikk når jeg spiller :smile:

Lenke til kommentar
Alle de som sier ATI har finere bildekvalitet enn Nvidia; har dere sett begge kortene i aksjon?? Tenkte ikke det nei.

Dette var vel ikke det mest gjennomtenkte poenget du kunne startet med. Andres erfaring med ulike skjermkort vet du fint lite om.

 

Howard - kunne du ha sett forskjell på hva som var ATI/Nvidia- kortet på en blind- test?

Det er verdens letteste sak å se forskjell på et Ati-kort og et nVidia-kort under spilling. En liten runde spill med AA skrudd på så ser du raskt hvilket kort som foreløpig har den beste AA-løsningen. Og når du i UT2003 først begynner å legge merke til hvor mipmap-båndene går ved bevegelse, så legger du merke til det hele tiden. Igjen en ting som gjør det lett å se forskjell på Ati og nVidia.

 

Det er i alle fall fin grafikk når jeg spiller  :smile:

Det er det helt sikkert. Flott for deg. Men med driver 44.03 kunne grafikken vært ennå bedre. Problemet her er således noe mer prinsippiell (og forunderlig lik Quack-greia fra et par år siden). Du får håpe nVidia går bort fra dette nye forunderlige prinsippet om at "Vi bestemmer hvilken grafikk-kvalitet som er best for deg" tilbake til det gode gamle prinsippet om at du som bruker får velge selv.

Lenke til kommentar
Det er det helt sikkert. Flott for deg. Men med driver 44.03 kunne grafikken vært ennå bedre. Problemet her er således noe mer prinsippiell (og forunderlig lik Quack-greia fra et par år siden). Du får håpe nVidia går bort fra dette nye forunderlige prinsippet om at "Vi bestemmer hvilken grafikk-kvalitet som er best for deg" tilbake til det gode gamle prinsippet om at du som bruker får velge selv.

Når jeg får mitt FX skal jeg få tak i 44.65 :) var vel på www.nvnews.net en plass at jeg så link til en test som viste bedre ytelse med (vertex?) shader enn 44.03 og det tullet i UT2003 var fiksa....skal vel undersøke litt nærmere før jeg gidder å laste den ned.

Lenke til kommentar
"]Når jeg får mitt FX skal jeg få tak i 44.65 :) var vel på www.nvnews.net en plass at jeg så link til en test som viste bedre ytelse med (vertex?) shader enn 44.03 og det tullet i UT2003 var fiksa....skal vel undersøke litt nærmere før jeg gidder å laste den ned.

Det går rykter om at de siste driverne (har de ikke rukket å komme opp i 45.20 etterhvert nå?) har fått ryddet bort det meste av slike uhumskheter. Tipper du kommer til å bli godt fornøyd med kortet ditt! :smile:

Mortenj; gjesp; antok at mange ikke alle, bare hadde referanse fra et av kortene.

Det var naturligvis derfor du skrev "alle" første gangen? :roll:

Lenke til kommentar
Det går rykter om at de siste driverne (har de ikke rukket å komme opp i 45.20 etterhvert nå?) har fått ryddet bort det meste av slike uhumskheter. Tipper du kommer til å bli godt fornøyd med kortet ditt! :smile:

Jo 42.50 - så det i dag :D Tror hvertfall jeg kommer til å bli mer fornøyd med det enn mitt GF2ti nå for tida :p

 

Det var naturligvis derfor du skrev "alle" første gangen? :roll:

*leR*

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...