Gå til innhold

ATI innrømmer optimalisering av drivere for 3DMark


Anbefalte innlegg

Videoannonse
Annonse
Det er gammalt nytt da. ATi ga denne uttalelsen bare timer etter at FM annonserte jukset. Men det er forskjell fra å flytte om på en shaderinstruksjon, slik at den blir raskere og gir det samme resultatet, som ati gjorde, enn å sette inn clipping planes, legge inn helt nye shadere og senke billedkvaliteten som nVidia gjorde.

 

En på Beyond3d sa det best slik:

 

ATi ga deg en 5'er når FM ville gi deg 5 kronestykker i steden, for det er enklere. nVidia ga deg en lekemynt.

 

 

Juks er Juks, uansett måte.

 

En person som doper seg på speed er ikke bedre enn en som doper seg på morfin.

Lenke til kommentar
Det er gammalt nytt da. ATi ga denne uttalelsen bare timer etter at FM annonserte jukset. Men det er forskjell fra å flytte om på en shaderinstruksjon, slik at den blir raskere og gir det samme resultatet, som ati gjorde, enn å sette inn clipping planes, legge inn helt nye shadere og senke billedkvaliteten som nVidia gjorde.

 

En på Beyond3d sa det best slik:

 

ATi ga deg en 5'er når FM ville gi deg 5 kronestykker i steden, for det er enklere. nVidia ga deg en lekemynt.

 

 

Juks er Juks, uansett måte.

 

En person som doper seg på speed er ikke bedre enn en som doper seg på morfin.

 

Men det er forskjell på å drikke XL1 under løpet og å ha dopet seg med speed.

Lenke til kommentar
"]:lol: *Ler* :lol: Dette er den beste tråden jeg har lest på lenge :)

Må si meg enig med deg, mad_arab.

 

Nvidias sak i 3dMark 2003 påvirker "alt" i 3dMark, ikke kun 5 textures.

 

Hva mener du med "alt"? Det er en test i 3DMark03 det er snakk om, ikke "alt", altså hele testen.

 

3dMark03 er EN test, som består av flere "undertester" (blandt annet gametest 1-4)

 

Min referanse til "5 textures" var i forbindelse med Quake/Quack saken og ikke 3DMark03.

 

ATI's endring i 3DMark03, som kun var i Gametest 4, var en optimalisering av den orginale koden, men det var fremdeles nøyaktig samme kode som ble eksekvert, men i forskjellig rekkefølge. Det visuelle sluttproduktet (bilde) var IDENTISK med slik 3dMark03 skal være.

 

Nvidias endring medførte at bildekvaliteten ble dårligere og at kortet ikke utførte de instruksjonene som 3dMark03 inneholder, men spesiallagede instruksjoner som Nvidia har laget, som ikke har like god bildekvalitet.

Lenke til kommentar
Jeg er fortsatt interessert i hva som er saken i det [-GoMp-] mener at ATi har "bøffa" fra nVidia under X-Box utviklingen...

 

Uansett om du har kilder eller ikke [-GoMp-], hva, ifølge det du har lest, har ATi "bøffa" fra nVidia?

 

Jeg er klar over at "bøffa" ikke er det riktige begrepet *trekker det tilbake*. Det jeg leste i den artikelen(sant eller ikke), er at mens nVidia utviklet chipen til Xbox, fikk ATI og andre tilgang på informasjon på en del av måten chipen var bygd opp på. Det var visst møter som nVidia, ATi, Microsoft og andre ledende grafikk-utviklere hadde og fortsatt har, for å bli enige om ditt og datt, for å sette standarder. Det er klart at selskapene må samarbeide/informere hverandre til en viss grad, slik at ikke f.eks nvidia og Ati utvikler brikker som er så forskjellige fra hverandre og fra DirectX spesifikasjonene at det ikke fungerer når man skal spille et spill.

Strukturen på selve grafikkortene er en annen sak, det er klart at hvert selskap gjør sitt beste i å lage det beste "oppsettet" på et grafikkort, for å få optimal ytelse.

Det er vel det samme for Intel og AMD(?): de også må jo informere f.eks Microsoft om kommende CPU'er, slik at Microsoft kan utvikle software i OS som støtter den typen CPU osv.

Lenke til kommentar
"]:lol: *Ler* :lol: Dette er den beste tråden jeg har lest på lenge :)

Må si meg enig med deg, mad_arab.

 

Nvidias sak i 3dMark 2003 påvirker "alt" i 3dMark, ikke kun 5 textures.

 

Hva mener du med "alt"? Det er en test i 3DMark03 det er snakk om, ikke "alt", altså hele testen.

 

3dMark03 er EN test, som består av flere "undertester" (blandt annet gametest 1-4)

 

Min referanse til "5 textures" var i forbindelse med Quake/Quack saken og ikke 3DMark03.

 

ATI's endring i 3DMark03, som kun var i Gametest 4, var en optimalisering av den orginale koden, men det var fremdeles nøyaktig samme kode som ble eksekvert, men i forskjellig rekkefølge. Det visuelle sluttproduktet (bilde) var IDENTISK med slik 3dMark03 skal være.

 

Nvidias endring medførte at bildekvaliteten ble dårligere og at kortet ikke utførte de instruksjonene som 3dMark03 inneholder, men spesiallagede instruksjoner som Nvidia har laget, som ikke har like god bildekvalitet.

 

Det er jo slik at juksinga bare foregikk i en "undertest", ikke alle undertestene på hele 3DMark03(aka "alt"). Eller tar jeg feil?

Lenke til kommentar
Det er gammalt nytt da. ATi ga denne uttalelsen bare timer etter at FM annonserte jukset. Men det er forskjell fra å flytte om på en shaderinstruksjon, slik at den blir raskere og gir det samme resultatet, som ati gjorde, enn å sette inn clipping planes, legge inn helt nye shadere og senke billedkvaliteten som nVidia gjorde.

 

En på Beyond3d sa det best slik:

 

ATi ga deg en 5'er når FM ville gi deg 5 kronestykker i steden, for det er enklere. nVidia ga deg en lekemynt.

 

 

Juks er Juks, uansett måte.

 

En person som doper seg på speed er ikke bedre enn en som doper seg på morfin.

 

Men det er forskjell på å drikke XL1 under løpet og å ha dopet seg med speed.

 

 

Ikke om XL1 er ulovlig.

Desuten er 3d Marks en veldig urealistisk test, grafikken vil i de aller aller færreste tilfeller oppføre seg om i 3D Marks.

Lenke til kommentar

Du tar nok feil. Hvis du ser på tabellen som Robin B postet i nVidia-tråden om samme emnet, så går score til FX5900 tilbake i alle tester, var ganske betydelig på hver, og alle gikk de mer tilbake enn 9800Pro gjorde på Gametest 4.

 

I tillegg, men dette er jeg ikke helt sikker på, så tror jeg at de brukte en driverinstruksjon for å doble Pixelshader-hastigheten i shadertesten.

Lenke til kommentar

Så det du mener, [-GoMp-], er at ATi fikk innsikt i arkitekturen på nVidia's X-Box brikke? Høres merkelig ut, men ok. Jeg har også hørt rykter om at den GPU'en/VPU'en som sitter i X-Boxen skal være 2 generasjoner etter NV30 i spesifikasjoner/ytelse... Greit nok når en vet at den er plugga sammen med en Celeron på 700MHz. Min maskin tviler jeg sterkt på hadde klart å kjøre det en X-Box kan kjøre med lik bildekvalitet... (Endelig har nVidia klart det? Eller er det heller blurring fra TV'en som får det til å se pent ut?)

 

Så det kan vel heller kalles arkitekturisk deling mellom nVidia og ATi da? =)

 

Dette blir det samme som: "Hvorfor har AMD MMX instruksjonssett når Intel har patent på den?" og nå igjen "Hvorfor har AMD SSE instruksjoner selv om det er Intel's patenter?"...

 

Jeg tror heller det hadde vært søksmål mot ATi hvis de hadde "bøffa" instruksjoner (f.eks) rett fra nVidia som nVidia allerede har tatt patent på (Det er vel viktig i en slik sammenheng?)... ;)

Lenke til kommentar
Så det du mener, [-GoMp-], er at ATi fikk innsikt i arkitekturen på nVidia's X-Box brikke? Høres merkelig ut, men ok. Jeg har også hørt rykter om at den GPU'en/VPU'en som sitter i X-Boxen skal være 2 generasjoner etter NV30 i spesifikasjoner/ytelse... Greit nok når en vet at den er plugga sammen med en Celeron på 700MHz. Min maskin tviler jeg sterkt på hadde klart å kjøre det en X-Box kan kjøre med lik bildekvalitet... (Endelig har nVidia klart det? Eller er det heller blurring fra TV'en som får det til å se pent ut?)

 

Så det kan vel heller kalles arkitekturisk deling mellom nVidia og ATi da? =)

 

Dette blir det samme som: "Hvorfor har AMD MMX instruksjonssett når Intel har patent på den?" og nå igjen "Hvorfor har AMD SSE instruksjoner selv om det er Intel's patenter?"...

 

Jeg tror heller det hadde vært søksmål mot ATi hvis de hadde "bøffa" instruksjoner (f.eks) rett fra nVidia som nVidia allerede har tatt patent på (Det er vel viktig i en slik sammenheng?)... ;)

 

X-Box er vel mer eller mindre bygget på GeForce 3 klassen av gfx kort fra Nvidia.

 

 

Når det gjelder det med Microsoft, Ati og Nvidia, så prøvde nok både ATI og Nvidia å påvirke Microsoft når det gjaldt hva som skulle være med i DX9 standarden. Det er jo selvfølgelig mulig at begge kunne gjette seg til hva den andre hadde planlagt når de så hva de forskjellige ønsket å få med i DX9 standarden.

Lenke til kommentar
"]Vet du hva? Jeg tror faktisk jeg skal trekke lodd om jeg skal kjøpe ATi eller nVidia!

jaaa det forslaget var ikke dumt, de jukser begge. Men det er jo slik de tjener penger jo.

Får ati mest 3dmark ja da skal alle ha et ati radeon kort, det er jo raskest. Det samme skjer nå med nye FX5900 Ultra.

Forskjellen mellom ati radeon 9800 256MB og nvidia fx5900 ultra256MB er liten i bruk på din data maskin, vil påstå at du aldri klarer å se forskjellen når du spiller med de to kortene.

Lenke til kommentar
Du tar feil. Les side 3 og 4 av denne rapporten, så ser du akkurat hvilken cheats det gjelder og i hvilke game-tester:

http://www.futuremark.com/companyinfo/3dmark03_audit_report.pdf

 

OK

 

I tillegg, men dette er jeg ikke helt sikker på, så tror jeg at de brukte en driverinstruksjon for å doble Pixelshader-hastigheten i shadertesten

 

Trodde det med shadere var ATi jeg...har nVidia også gjort det?

 

Så det du mener, [-GoMp-], er at ATi fikk innsikt i arkitekturen på nVidia's X-Box brikke? Høres merkelig ut, men ok. Jeg har også hørt rykter om at den GPU'en/VPU'en som sitter i X-Boxen skal være 2 generasjoner etter NV30 i spesifikasjoner/ytelse... Greit nok når en vet at den er plugga sammen med en Celeron på 700MHz. Min maskin tviler jeg sterkt på hadde klart å kjøre det en X-Box kan kjøre med lik bildekvalitet... (Endelig har nVidia klart det? Eller er det heller blurring fra TV'en som får det til å se pent ut?)  

 

Så det kan vel heller kalles arkitekturisk deling mellom nVidia og ATi da? =)  

 

Dette blir det samme som: "Hvorfor har AMD MMX instruksjonssett når Intel har patent på den?" og nå igjen "Hvorfor har AMD SSE instruksjoner selv om det er Intel's patenter?"...  

 

Jeg tror heller det hadde vært søksmål mot ATi hvis de hadde "bøffa" instruksjoner (f.eks) rett fra nVidia som nVidia allerede har tatt patent på (Det er vel viktig i en slik sammenheng?)...

 

- Jeg sa, hvis du leste og oppfattet ;) , at jeg bruke feil ord da jeg skrev "bøffa" - please stop throwing it in my face :)

 

- Om jeg mener at de fikk innsikt i arkitekturen? Nei, men jeg leste det.

 

- Når det gjelder Xbox så er det rå-data det er snakk om da...En PC bruker programmer for å kjøre programmer igjen...fins jo også mange flaskehalser på en PC (AGP f.eks - gleder oss til PCI express :D )

 

Når det gjelder det med Microsoft, Ati og Nvidia, så prøvde nok både ATI og Nvidia å påvirke Microsoft når det gjaldt hva som skulle være med i DX9 standarden. Det er jo selvfølgelig mulig at begge kunne gjette seg til hva den andre hadde planlagt når de så hva de forskjellige ønsket å få med i DX9 standarden.

:yes:

Begge selskapene var jo med på å definere standarden...og hvis nVidia/ATi sier "vi syns at den shader-operasjonen skal kunne foregå sånn og sånn" osv, så er det vel ikke umulig for det andre selskapet å gjette seg i riktig retning av hva det andre planlegger.

Lenke til kommentar
"]Vet du hva? Jeg tror faktisk jeg skal trekke lodd om jeg skal kjøpe ATi eller nVidia!

jaaa det forslaget var ikke dumt, de jukser begge. Men det er jo slik de tjener penger jo.

Får ati mest 3dmark ja da skal alle ha et ati radeon kort, det er jo raskest. Det samme skjer nå med nye FX5900 Ultra.

Forskjellen mellom ati radeon 9800 256MB og nvidia fx5900 ultra256MB er liten i bruk på din data maskin, vil påstå at du aldri klarer å se forskjellen når du spiller med de to kortene.

 

Enig :yes: Pris og bundle vil vel spille en stor rolle når man velger hviklet kort man skal kjøpe(så sant man ikke er fan av en av gigantene).

Når det gjelder ytelse fremover vil kanskje driverne ha en god del å si.

Lenke til kommentar
"]Trodde det med shadere var ATi jeg...har nVidia også gjort det?

Hvis du leser det som står i Audit rapporten jeg har linket til i min forrige post, så ser du blant annet dette:

 

4. In game test 4, the water pixel shader (M_Water.psh) is detected. The driver uses this detection to artificially achieve a large performance boost - more than doubling the early frame rate on some systems. In our inspection we noticed a difference in the rendering when compared either to the DirectX reference rasterizer or to those of other hardware. It appears the water shader is being totally discarded and replaced with an alternative more efficient shader implemented in the drivers themselves. The drivers produce a similar looking rendering, but not an identical one.

 

5. In game test 4 there is detection of a pixel shader (m_HDRSky.psh). Again it appears the shader is being totally discarded and replaced with an alternative more efficient shader in a similar fashion to the water pixel shader above. The rendering looks similar, but it is not identical.

Lenke til kommentar
"]Trodde det med shadere var ATi jeg...har nVidia også gjort det?

Hvis du leser det som står i Audit rapporten jeg har linket til i min forrige post, så ser du blant annet dette:

 

4. In game test 4, the water pixel shader (M_Water.psh) is detected. The driver uses this detection to artificially achieve a large performance boost - more than doubling the early frame rate on some systems. In our inspection we noticed a difference in the rendering when compared either to the DirectX reference rasterizer or to those of other hardware. It appears the water shader is being totally discarded and replaced with an alternative more efficient shader implemented in the drivers themselves. The drivers produce a similar looking rendering, but not an identical one.

 

5. In game test 4 there is detection of a pixel shader (m_HDRSky.psh). Again it appears the shader is being totally discarded and replaced with an alternative more efficient shader in a similar fashion to the water pixel shader above. The rendering looks similar, but it is not identical.

 

Jeg har desverre ikke Acrobat e.l. akkurat nå, og i øyeblikket står maskina mi og konverterer Xvid til mpeg2 (buker 100% av CPU), så jeg skal lese hele artikkelen senere :)

Men det er jo nesten litt interessant da... gikk de shader-juksene der utover bildekvaliteten? Hvis ikke, så er det jo genialt! Å lage en ny shader som gir dobbelt så bra ytelse men ikke går utover bildekvaliteten - DET kan de gjerne gjøre i spill! ;) Det ville jo både ATi og nVidia tjene mye på å gjøre, og så lenge det ikke går an å se forskjell - why not?

Lenke til kommentar

Men det er jo nesten litt interessant da... gikk de shader-juksene der utover bildekvaliteten? Hvis ikke, så er det jo genialt! Å lage en ny shader som gir dobbelt så bra ytelse men ikke går utover bildekvaliteten - DET kan de gjerne gjøre i spill! ;) Det ville jo både ATi og nVidia tjene mye på å gjøre, og så lenge det ikke går an å se forskjell - why not?

 

Begge gjør det i spill... Som oftest riktignok ved å gi utviklerne koden, men av og til via drivere...

 

Problemet her er at Nvidia's shader ikke gir riktig resultat...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...