Gå til innhold

ATI innrømmer optimalisering av drivere for 3DMark


Anbefalte innlegg

Ok..siden det er noen misforståelser her. ATi "jukset" bare på game test 4, noe som ga ytelsesforbedring med ca 9% på denne testen, og totalt gikk derfor scoren opp 1.9%. Hvis noen lurer på hvor mye nVidia jukset på denne testen, så var det med 50%...

Lenke til kommentar
Videoannonse
Annonse
Glem 3dmark2003.  Det sier lite eller ingenting om hvordan skjermkort yter i dagens spill. Bruk spill benchmarks i steden.

 

Tror du helt ærlig at driverne til Nvidia Og Ati ikke er optimalisert for disse (spillbenchmarks),dessuten glemmer folk at måten Nvidia jukset på gikk ut over den visuelle kvaliteten mens det Ati gjorde hadde ingenting å si for den visuelle kvaliteten.

Og ikke kom å si at du ikke hadde blitt forbannet dersom spillet du spilte hadde masse frames men en elendig biledkvalitet.

dersom du ønsker dårligere visuell kvalitet kan du vel selv velge det i kontrollpanelet

Lenke til kommentar
Klart jeg reagerer på at Nvidia jukser mer enn ati. Mitt neste grafikkort blir ikke fra nvidia. Kan jo ikke stole på dem...

:lol::lol:

Så jeg regner da med at det blir Matrox eller 3Dlabs eller noe i den duren da disse forløpig ikke er tatt i juks?

Lenke til kommentar
Klart jeg reagerer på at Nvidia jukser mer enn ati. Mitt neste grafikkort blir ikke fra nvidia. Kan jo ikke stole på dem...

:lol::lol:

Så jeg regner da med at det blir Matrox eller 3Dlabs eller noe i den duren da disse forløpig ikke er tatt i juks?

 

Hvor jukset ATI?? Hvis du mener optimalisering så er det langt fra juks.

Lenke til kommentar
Klart jeg reagerer på at Nvidia jukser mer enn ati. Mitt neste grafikkort blir ikke fra nvidia. Kan jo ikke stole på dem...

:lol::lol:

Så jeg regner da med at det blir Matrox eller 3Dlabs eller noe i den duren da disse forløpig ikke er tatt i juks?

 

Hvor jukset ATI?? Hvis du mener optimalisering så er det langt fra juks.

 

Uff, kall det hva du vill, men for meg blir det akkurat det samme som juks. Lurer egentlig på om du forstår at når man faktisk gjør det nvidia gjør , og det er å forandre på drivere for utelukkende BARE få økt ytelse i en Syntetisk Benchmark (og generelt på bekostelse av IQ), så blir man meget skuffet. Det er greit at Nvidia ønsker å være best, men da må di virkelig fortjene det og ikke gjøre ting som faktisk går utover DEG og MEG.

 

Hadde derimot Nvidia gjort jobben sin og optimalisert driveren sånn at di utnytter maksimalt kortet sitt og får mest mulig kvalitet ut av det hadde egentlig dette ikke vært noe sak i det hele tatt.

 

Men i påvente på nye drivere fra nvida og en god forklaring (unskyldning) så stoler ikke jeg mere på det selskapet. Har hittil bare hatt gode kort fra di, men har fort forstått at jetg nå må vurdere andre kort når jeg skal oppgradere.

 

Og det kan bli et ati kort, for di i det minste ser ut som di er såpass seriøse at di ikke gjør samme tabben på nytt.

Lenke til kommentar
Klart jeg reagerer på at Nvidia jukser mer enn ati. Mitt neste grafikkort blir ikke fra nvidia. Kan jo ikke stole på dem...

:lol::lol:

Så jeg regner da med at det blir Matrox eller 3Dlabs eller noe i den duren da disse forløpig ikke er tatt i juks?

 

Hvor jukset ATI?? Hvis du mener optimalisering så er det langt fra juks.

 

Uff, kall det hva du vill, men for meg blir det akkurat det samme som juks. Lurer egentlig på om du forstår at når man faktisk gjør det nvidia gjør , og det er å forandre på drivere for utelukkende BARE få økt ytelse i en Syntetisk Benchmark (og generelt på bekostelse av IQ), så blir man meget skuffet. Det er greit at Nvidia ønsker å være best, men da må di virkelig fortjene det og ikke gjøre ting som faktisk går utover DEG og MEG.

 

Hadde derimot Nvidia gjort jobben sin og optimalisert driveren sånn at di utnytter maksimalt kortet sitt og får mest mulig kvalitet ut av det hadde egentlig dette ikke vært noe sak i det hele tatt.

 

Men i påvente på nye drivere fra nvida og en god forklaring (unskyldning) så stoler ikke jeg mere på det selskapet. Har hittil bare hatt gode kort fra di, men har fort forstått at jetg nå må vurdere andre kort når jeg skal oppgradere.

 

Og det kan bli et ati kort, for di i det minste ser ut som di er såpass seriøse at di ikke gjør samme tabben på nytt.

Lenke til kommentar

Poenget er vel at nvidia brukte en teknikk som ikke kunne ha vært brukt i et vanlig spill, mens det ati gjorde kunne vert gjort for et vanlig spill. Og ATI opptimaliseringen ga IKKE dårligere bildekvalitet. Det blir en skjønnssak hvor vidt ati jukset eller ikke, de kan godt samarbeide med spilutviklere om å optimalisere for spillet. Så for de spillene de optimaliserer for kan det kanskje gi et bedre bilde på ytelsen. I tillegg reagerte nvidia mye dårligere enn ati, da nvidia feide av hele greia og sa at futuremark var ute for å ta dem (eller noe i den dur). Poenget er at nvidias juks gir et fullstendigt falskt bilde av virkeligheten, mens atis "juks" kan i en del tilfeller illustrere virkeligheten bedre.

Lenke til kommentar
Gjest Slettet-QqZexW9o

Nei nå jukser alle sammen. Blir Matrox neste gang da siden de dritter i 3Dmark og derfor også resultat.

 

Men alle sier ikke 3Dmark har noe å si på skjermkortet. Er forsåvidt enig til et vis punkt men når du skal kjøpe et skjermkort så vil du gjerne ha det som gir deg mest for pengene. Altså hvis Nvidia yter bedre på 3Dmark og koster mindre enn tilsvarende fra ATi så velger jo de fleste da Nvidia. En pekepinn må vi ha for på kunne fastslå hvordan kortet er i "praksis". Om det er 75FPS eller 300FPS så skal det godt merkes før vi enser det. Derfor er en test viktig.

 

Det som ikke har noe å si, er vel om kortet scorer 10% mer eller mindre på 3Dmark testen. Har ingen betydning når skal du bruke skjermkortet til vanlig PC bruk

(spill,media etc)

Lenke til kommentar

For å prøve å oppsummere litt for de som ikke leser annet en hw.no eller ITavisen eller lignende.

 

 

Det ATI gjorde var å endre rekkefølgen på instruksjonene. Instruksjonene som ble utført er IDENTISKE med hva 3dmark inneholder.

 

For å lage ett lettfattelig eksempel(men ikke nøyaktig)

 

3DMark:

 

a=b+c

b=c+1

c=3

---> b=3+1 ---> a= (3+1) + 3 = 7

 

 

ATI:

c=3

b=c+1 -->b= 3+1 = 4

a=b+c -->a= 4+3 = 7

 

 

På en måte så kan man tenke seg at i eksemplet over så bruker 3dMarks version 4 klokkesykler, mens ATI's optimaliserte kode tar 3 klokkesykler.

Lenke til kommentar

Eller for å si det med /.-ord:

nVidia: "Well, for this program they will never step off the rail, so we can fake it so it looks good from the rail only."

 

ATI: "Well, this shader program isn't optimally coded - here is a more optimally coded shader that does the exact same thing but more quickly."

 

nVidia: "Well, you caught us, but we have to cheat because you have it in for us!"

 

ATI: "Well, you caught us, and although we were doing the exact same thing (only faster), we will remove that code ASAP."

Jeg må nok innrømme at jeg trodde et så profesjonelt selskap som nVidia holdt seg for god til å opptre så umodent og barnslig som nVidia har gjort i denne saken fra det øyeblikket de forlot beta-programmet til 3dmark og fram til i dag... Et trist syn fra ende til annen.

 

John Carmack har for øvrig gitt en kommentar. Et par interessante utdrag:

Rewriting a shader so that it does exactly the same thing, but in a more efficient way, is generally acceptable compiler optimization, but there is a range of defensibility from completely generic instruction scheduling that helps almost everyone, to exact shader comparisons that only help one specific application. Full shader comparisons are morally grungy, but not deeply evil.

Dette kan godt leses som et lite forsvar for det Ati har gjort.

Rewriting shaders behind an application's back in a way that changes the output under non-controlled circumstances is absolutely, positively wrong and indefensible.

Og dette kan ikke sies å være annet enn en fullstendig fordømmelse av nVidia.

Lenke til kommentar

"The 1.9% performance gain comes from optimization of the two DX9 shaders (water and sky) in Game Test 4 . We render the scene exactly as intended by Futuremark, in full-precision floating point. Our shaders are mathematically and functionally identical to Futuremark's and there are no visual artifacts; we simply shuffle instructions to take advantage of our architecture. These are exactly the sort of optimizations that work in games to improve frame rates without reducing image quality and as such, are a realistic approach to a benchmark intended to measure in-game performance. However, we recognize that these can be used by some people to call into question the legitimacy of benchmark results, and so we are removing them from our driver as soon as is physically possible. We expect them to be gone by the next release of CATALYST."

 

 

http://www.beyond3d.com/#news6040

Lenke til kommentar
Nok en gang..forskjell på juks og juks  :p ...og dette er også 2. gangen nVidia gjør dette.

 

Sier Quake 3 deg noe ? *hint*: Quake 3 + ATI = juks! Ikke første gangen for ATi heller skjønner du.

 

Jeg er helt enig i at dette er en gediiigen tabbe fra nVidia sin side, men jeg sitter hvertfall ikke som alle ATI-fanboys her og prøver å dra nVidia gjennom mest mulig møkk og dritt og dytter dem lengre ned i søla!

ATi fikk tilgang på informasjon om mye av teknologien til nVidia under utviklingen av ps2 og Xbox, så hadde det ikke vært for det, kan det godt hende at ATI ikke hadde vært der de er i dag.

Gøy å "bøffe" mye av andres teknologi og optimatisere den litt og *baNg!* være "hersker" på markedet... eller hur?

Lenke til kommentar
"]ATi fikk tilgang på informasjon om mye av teknologien til nVidia under utviklingen av ps2 og Xbox, så hadde det ikke vært for det, kan det godt hende at ATI ikke hadde vært der de er i dag.  

Gøy å "bøffe" mye av andres teknologi og optimatisere den litt og *baNg!* være "hersker" på markedet... eller hur?

Det er påstander så tvilsomme at du helst bør komme med litt mer kildeinformasjon.

Lenke til kommentar
Nei nå jukser alle sammen. Blir Matrox neste gang da siden de dritter i 3Dmark og derfor også resultat......

:lol::lol::D

 

Det kommer vel til å vise seg tenker jeg, at Parhelia 2 512MB knuser R400 og NV40 i 3DMark2003 pga optimalisering i Matrox driverene. :D

Lenke til kommentar
"]

ATi fikk tilgang på informasjon om mye av teknologien til nVidia under utviklingen av ps2 og Xbox, så hadde det ikke vært for det, kan det godt hende at ATI ikke hadde vært der de er i dag. Gøy å "bøffe" mye av andres teknologi og optimatisere den litt og *baNg!* være "hersker" på markedet... eller hur?

 

Den påstanden tror jeg du bare fant på. ATI og Nvidia har såpass forskjellig arkitektur på skjermkortene sine at den påstanden din holder ikke mål. Har du noen kilder å vise til?

Lenke til kommentar
"]
Nok en gang..forskjell på juks og juks  :p ...og dette er også 2. gangen nVidia gjør dette.

 

Sier Quake 3 deg noe ? *hint*: Quake 3 + ATI = juks! Ikke første gangen for ATi heller skjønner du.

 

Quack er en annen diskusjon... Hvis du faktisk er litt interessert i hva som faktisk skjedde, ta en titt på Beyond3d.com/forum... Der skulle du finne nok info..

 

Og det skjedde for over et år siden... Nvidia har blitt ferska 2 ganger på mye kortere tid enn det...

 

Jeg er helt enig i at dette er en gediiigen tabbe fra nVidia sin side, men jeg sitter hvertfall ikke som alle ATI-fanboys her og prøver å dra nVidia gjennom mest mulig møkk og dritt og dytter dem lengre ned i søla!  

 

Ja, for det er så veldig mye mer noen kan gjøre for å dytte Nvidia lenger ned i søla... Virker nesten som de har nådd grunnfjellet....

(Selv om de kan kanskje bruke tnt for å komme seg lenger ned, men det er noe vi vil se med tiden...)

 

ATi fikk tilgang på informasjon om mye av teknologien til nVidia under utviklingen av ps2 og Xbox, så hadde det ikke vært for det, kan det godt hende at ATI ikke hadde vært der de er i dag.  

Gøy å "bøffe" mye av andres teknologi og optimatisere den litt og *baNg!* være "hersker" på markedet... eller hur?

 

Ehhhh? What?

Tenk på følgende: Nvidia kjøpte opp 3dfx's IPO for å ansette deres ingeniører...

Hvis de ikke hadde gjort det, hadde det vært en mulighet for at boet/nye eiere kunne saksøkt dem for å bruke tech basert på 3dfx's.....

 

Så hva får deg til å tro at Nvidia hadde latt ATI slippe unna med å "bøffe" deres tech.... Spesielt når teknologien brukes til å knuse Nvidia's top of the line kort 2 ganger (Gf4, Gf FX), og komme ca. likt med det tredje (NV35)......

 

Er du sikker på at du ikke tenker på oppkjøpet av ArtX? Hvis så, så har det ingen relevans til Nvidia's tech...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...