ezet Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Først: Det å si at 3dMark03 ikke betyr noe, og at spill er alt, er absolutt ikke sant. Når du kjøper et skjermkort, vil du nok gjerne ha et som er framtidsrettet. DERFOR, er selvsagt syntetiske tester en viktig grunn til kjøp av skjermkort. Du kan ikke teste DirectX9 og andre "framtidige" funksjoner i spill som ikke bruker disse. Derfor tyr man til eventuelle benchmarks, som kan gi oss et lite bilde av hvordan dette vil fungere, og yte. En annen ting er at Futuremark og resten av verden bryr seg lite om hvor mye folk sitter her å skriver om at "3dMark03 er bare show-off", og "Du er idiot om du kjøper skjermkort pga. en 3dmark test". Det at folk kjøper skjermkort på dette grunnlaget er et faktum, uansett hvor mye noen på hw forumet tyter om at det er dumt. Det er nemlig en helt annen sak. Så vi får holde oss til fakta. Om nVidia jukser er noe vi bare kan spekulere i, enn så lenge, men eg må si at det ser ikke så bra ut for nVidia. Leste gjennom tråden, og ble bare mer og mer irritert over påstander om at 3dmark03 er dumt. Det kan så være, men faktum er at det blir brukt av alle, til alle tider. Tester, personlig tweaking og optimalisering av skjermkort, og som sammenligningsgrunnlag mellom kort. Sånn er det bare. Lenke til kommentar
freerider Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Det er for dust hvis dette skal gjøres til en ATI vs. NVIDIA greie. Folk som sier, Ati jukser sikkert også, eller at syntetiske tester ikke gjelder, misser jo helt poenget. Syntetiske tester gjelder, fordi de har en stor innvirkning på hvor mye grafikk kort de selger. Hvorfor ellers ville Nvidia jukse, hvis de ikke så på syntetiske benchmarks som viktige ? Og argumentet med at andre sikkert også jukser, er helt bak mål. Gå og søk jobb i det finske langrennsforbundet hvis dere ser slik på det. Det er en så sinnsvakt svak unnskyldning. Jeg har alltid hatt Nvidia kort, men synes uansett at dette stinker ! Lenke til kommentar
rabagast3 Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Til skyline: les litt lenger ned og se at Nvidia var med nesten hele utviklinga av 3dmark2003. Så de har nesten hele kildekoden. Tom's HardwareOne additional thing that has become clear. Depending on which sources you listen to, Nvidia while still participating in the Futuremark Beta program had access to the last code drop before the final code was released for 3DMark03. Several sources have seemed to indicate that the differences between the last code that Nvidia has access to and the final build where very minimal. Lenke til kommentar
Gjest Slettet-80wCWpIM Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Først:Det å si at 3dMark03 ikke betyr noe, og at spill er alt, er absolutt ikke sant. Når du kjøper et skjermkort, vil du nok gjerne ha et som er framtidsrettet. DERFOR, er selvsagt syntetiske tester en viktig grunn til kjøp av skjermkort. Du kan ikke teste DirectX9 og andre "framtidige" funksjoner i spill som ikke bruker disse. Derfor tyr man til eventuelle benchmarks, som kan gi oss et lite bilde av hvordan dette vil fungere, og yte. En annen ting er at Futuremark og resten av verden bryr seg lite om hvor mye folk sitter her å skriver om at "3dMark03 er bare show-off", og "Du er idiot om du kjøper skjermkort pga. en 3dmark test". Det at folk kjøper skjermkort på dette grunnlaget er et faktum, uansett hvor mye noen på hw forumet tyter om at det er dumt. Det er nemlig en helt annen sak. Så vi får holde oss til fakta. Om nVidia jukser er noe vi bare kan spekulere i, enn så lenge, men eg må si at det ser ikke så bra ut for nVidia. Leste gjennom tråden, og ble bare mer og mer irritert over påstander om at 3dmark03 er dumt. Det kan så være, men faktum er at det blir brukt av alle, til alle tider. Tester, personlig tweaking og optimalisering av skjermkort, og som sammenligningsgrunnlag mellom kort. Sånn er det bare. alt du sier kan kommenteres med denne lille setningen it should only, if at all, be used as a background test and not a measure of actual game performance or for that matter DX9, given it's shortcomings in using true DX9 shaders voila,der går argumentet om at 3dmark 03 gir en seriøs pekepinne på hvordan kortet vil fungere i fremtiden, det kan ikke gi det når 3dmark ikke tester det skikkelig. edit: som nevnt tidligere, flere hw sider har kommentert at de har oppdaget visse unormaliteter ved testing av geforce fx 5800 og 5900 ultra i slike syntetiske test-programmer, og de har selv pekt på at det at nvidia ikke deltar i futuremark programmet er en trolig årsak til dette,siden de da ikke har tilgang. er det ikke da logisk at dette som fra før var en årsak til at geforce fx gav rare tall også nå virker inn med nyere drivere ? ser ikke helt hvorfor nvidia skulle gidde å jukse i 3dmark når de selv har gått ut og sagt hva de synes om 3dmark 03.. heller ikke når alle de virkelige testene viser at 5900 ultra er det raskeste skjermkortet på markedet. fakta ? hvilken fakta,har du noen undersøkelser som sier at folk flest kjøper skjermkort på grunnlag av 3dmark tester ? jeg baserer mine uttalelser på aktiviteten på forumet, dvs hva folk sier de er ute etter når de kjøper skjermkort.. bra 2d kvalitet samt rå 3d ytelser, det er ingen som viser til 3dmark tester, de viser heller til div sammendrag av tester av skjermkort slik at man får se hele bildet i saken.... Lenke til kommentar
panikk! Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Hadde nå tatt Nvidias sine utalelser med en klype salt uansett da, det er jo tross alt ikke i koden til 3dmark at feilen ligger men i selve koden til driverne til nvidia. Om det er en feil eller en beregnet justering i driveren for å gjenkjenne 3dmark det tipper jeg nok at Futuremark greide å bevise klart nok. Men jeg forstår utrolig godt svaret til nvidia, hadde sikkert svart det samme hadde jeg blitt tatt med buksa nede. Og kremt kremt, Nvidia sin IQ (bildekvalitet) er IKKE bedre en Ati sin. Lenke til kommentar
Gjest Slettet-80wCWpIM Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Hadde nå tatt Nvidias sine utalelser med en klype salt uansett da, det er jo tross alt ikke i koden til 3dmark at feilen ligger men i selve koden til driverne til nvidia. Om det er en feil eller en beregnet justering i driveren for å gjenkjenne 3dmark det tipper jeg nok at Futuremark greide å bevise klart nok. Men jeg forstår utrolig godt svaret til nvidia, hadde sikkert svart det samme hadde jeg blitt tatt med buksa nede. Og kremt kremt, Nvidia sin IQ (bildekvalitet) er IKKE bedre en Ati sin. mine uttelalser angående bildekvaliteten til nvidia kommer etter å ha lest de fleste reviewene av nettopp 5900 ultra vs 9800 pro, så konkluderer de med at det er tildels umulig å se noen forskjell,mens andre igjen kommenterer at de mener kanskje nvidia ligger litt bedre an. men selvsagt, med tanke på din uttalelse så har du sikkert tatt en nærmere kikk på begge i aksjon ? dette er ikke noe som kun nvidia har sakt,dette har blitt nevnt av hw sider før,nemlig hvordan det at nvidia ikke deltar i futuremark programmet har ført til lignende ting,bare at det før har vært mistenksomt lave poengsummer og problemer med bildet Lenke til kommentar
sheriff Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Hmm, de som lager driverne hos Nvidia er ikke med i futuremark-programmet og famler i blinde. Så ved en ny driverlansering får de 25% økning i enkelte 3dmark-tester og tenker, dæven der var vi heldige. :-? Nei, prøv igjen, det blir for dumt. Lenke til kommentar
formann Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Hmm, de som lager driverne hos Nvidia er ikke med i futuremark-programmet og famler i blinde. Så ved en ny driverlansering får de 25% økning i enkelte 3dmark-tester og tenker, dæven der var vi heldige. :-? Nei, prøv igjen, det blir for dumt. Du har ikke lest hele tråden skjønner jeg.... Lenke til kommentar
panikk! Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Thomasm Angående kantutjevning, noe som er meget merkbart ,er det STOR forskjell mellom Nvidia og Ati, der ati faktisk er best. Men seriøst har du noen linker til meg med skjermbilder fra FX og ATI kort der Fx kortene har bedre kantutjevning? Tror ikke det. Jeg derimot kan ramse opp med x antall linker (du kan selvsagt se litt på forumet der det er faktisk tatt opp x^n antall ganger bildekvaliteten). Det er også noen issues med Noen spill (Serious sam second encounter) der FX kortene blurer bildene noe med aa og af på. Men for all del, kom med bevis på at bildekvaliteten på FX kortene er bedre en ATI sine. Lenke til kommentar
Shrike Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Noe så tåpelig. Nvidia dritter seg ut gang på gang nå jo Holder meg til ATi. De hadde ikke den store variasjonen i poengene som Nvidia. Og etter og ha sett de forskjellige bildene fra testene ser man lett at det er bedre bilde på ATi. Og nå er det bildekvaliteten som er argumentet. Tapere finnes det søren meg mange av her! Hmm, så ille provosert du ble da, er du en gutt på 16 som har brukt alle pengene fra Aftenpostenruta di på Geforce FX? Lenke til kommentar
Spaz Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 "Since NVIDIA is not part in the FutureMark beta program (a program which costs of hundreds of thousands of dollars to participate in) we do not get a chance to work with Futuremark on writing the shaders like we would with a real applications developer" Nvidia driter på draget igjen. Det koster langt fra "hundreds of thousands of dollars" å delta i Futuremark's beta program. http://discuss.futuremark.com/forum/showth...c=1#Post2288998 Lenke til kommentar
MistaPi Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 edit: som nevnt tidligere, flere hw sider har kommentert at de har oppdaget visse unormaliteter ved testing av geforce fx 5800 og 5900 ultra i slike syntetiske test-programmer, og de har selv pekt på at det at nvidia ikke deltar i futuremark programmet er en trolig årsak til dette,siden de da ikke har tilgang. er det ikke da logisk at dette som fra før var en årsak til at geforce fx gav rare tall også nå virker inn med nyere drivere ? ser ikke helt hvorfor nvidia skulle gidde å jukse i 3dmark når de selv har gått ut og sagt hva de synes om 3dmark 03.. Når det er forsiktig blitt plassert static clipping planes utenfor kamera vinkelen for å redusere workloaden til skjermkortet så er det ganske åpenbart at nvidia har drivet med noe snusk IMO. mine uttelalser angående bildekvaliteten til nvidia kommer etter å ha lest de fleste reviewene av nettopp 5900 ultra vs 9800 pro, så konkluderer de med at det er tildels umulig å se noen forskjell,mens andre igjen kommenterer at de mener kanskje nvidia ligger litt bedre an. Jasså? "This image shows the greatest drawback of NVIDIA's "Ordered Grid" antialiasing. Where the Pylons still show jagged edges in the FX's 4x mode, ATi's 4x "Jittered Grid" AA all but eliminates them." -Tomshardware "Looking at AA Quality, we came to the conclusion that the ATI 9800 Pro 256MB card still has hands down the best AA quality. You cannot beat ATI?s rotated grid with gamma correct AA. NVIDIA still uses an ordered grid sampling pattern on the NV35." -HardOCP "Jaggies are more apparent on the GeForce FX 5900 Ultra, even in 4xAA mode. The easiest place to spot them is on the lead B-17 in the picture, right between the two engines. While this area is relatively free of jagged edges on the RADEON 9800 PRO card, GeForce FX 5900 Ultra is filled with them." -Firingsquad "It is evident that only 8x mode from NVIDIA can compete with ATI?s 4x and 6x modes more or less successfully." -XbitLabs Lenke til kommentar
Spaz Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 ""This image shows the greatest drawback of NVIDIA's "Ordered Grid" antialiasing. Where the Pylons still show jagged edges in the FX's 4x mode, ATi's 4x "Jittered Grid" AA all but eliminates them." -Tomshardware" That image shows a hammer Lenke til kommentar
Gjest Slettet-80wCWpIM Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Thomasm Angående kantutjevning, noe som er meget merkbart ,er det STOR forskjell mellom Nvidia og Ati, der ati faktisk er best. Men seriøst har du noen linker til meg med skjermbilder fra FX og ATI kort der Fx kortene har bedre kantutjevning? Tror ikke det. Jeg derimot kan ramse opp med x antall linker (du kan selvsagt se litt på forumet der det er faktisk tatt opp x^n antall ganger bildekvaliteten). Det er også noen issues med Noen spill (Serious sam second encounter) der FX kortene blurer bildene noe med aa og af på. Men for all del, kom med bevis på at bildekvaliteten på FX kortene er bedre en ATI sine. http://content.guru3d.com/article.php?cat=...2&pagenumber=10 null forskjell på de 2 Not to be overlooked, 2D desktop image quality is just as important for most people as is 3D gaming. ATI has long held a slight edge in the desktop area, and with the FX 5800 Ultra from a few months back that edge opened up to a noticeable gap. With the GeForce FX 5900 Ultra 2D quality is back and the gap narrows to irrelevant. Lenke til kommentar
icarus1983 Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Nvidia kan jukse så mye de bare vil i 3dmark med windows drivere for min del. Så lenge de har best støtte i linux, og derav gir den beste ytelsen, så kommer jeg til å fortsette med nvidia! Lenge Leve Linux Powered by nVidia Lenke til kommentar
formann Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 ""This image shows the greatest drawback of NVIDIA's "Ordered Grid" antialiasing. Where the Pylons still show jagged edges in the FX's 4x mode, ATi's 4x "Jittered Grid" AA all but eliminates them." -Tomshardware" That image shows a hammer The most ugly hammer of them all..that is. Lenke til kommentar
panikk! Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Her på testen til http://www.hardocp.com/article.html?art=NDcyLDY= kan man kan hvem som helst se forskjell. Og skal ikke være kverrulant, men man kan faktisk se forskjell hvis man ser nøye etter på den siden du viste meg, tviler på at det er null forskjell. Tenker meg at dem må bare some litt til. Men litt offtopic da, kjører selv et geforce ti 4200 uten noen form for aa og af og spilloplevelesen er fortsatt kjempebra... Men tilbake til topic : Fy nvidia fy!!! Punktum slutt. PS: Det er fullstendig lov å gi ut nye bedre drivere som ikke har di samme problemene. Lenke til kommentar
b0nna Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 "Since NVIDIA is not part in the FutureMark beta program (a program which costs of hundreds of thousands of dollars to participate in) we do not get a chance to work with Futuremark on writing the shaders like we would with a real applications developer" Nvidia driter på draget igjen. Det koster langt fra "hundreds of thousands of dollars" å delta i Futuremark's beta program. http://discuss.futuremark.com/forum/showthreaded.pl?Cat=&Board=techdisplayadapters&Number=2288998&page=0&view=collapsed&sb=5&o=0&vc=1#Post2288998 Jaha? Så "AJ" på futuremark.com forumet har liksom oversikten over hvor mye det vil koste nvidia å delta? Lenke til kommentar
panikk! Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Jaha? Så "AJ" på futuremark.com forumet har liksom oversikten over hvor mye det vil koste nvidia å delta? AJ står for :Aki Jarvilehto, VP Benchmark Products, Futuremark Corporation. Lenke til kommentar
Stage Skrevet 24. mai 2003 Del Skrevet 24. mai 2003 Haha, dette er jo helt tåpelig. Er som å høre en gjeng barnehage-unger diskutere FN's rolle i det nye verdensbildet. 9/10 her har jo ikke engang peiling nok til å lese Beyond3d, enda mindre evne til å faktisk forstå noe av det. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå