Gå til innhold

Neste gen Nvidia skjermkort Kepler (GTX - 6xx ?)


_ziggy_

Anbefalte innlegg

Videoannonse
Annonse

Gode priser ja, skulle bare ønske det var gode priser på en variant med 4GB.

Spiller du på flere skjermer efikkan? Hvis ikke er det ikke en eneste test jeg har sett som gir merkbart bedre ytelse med 4GB. Eller driver du med andre ting enn spill kanskje? :hmm:

Jeg har bare én skjerm for tiden, men det er utvikling jeg trenger det til, så mye minne som mulig. Jeg må faktisk bytte ut mitt GTX 580 fordi jeg trenger funksjonalitet i Kepler (og minnestørrelse), ikke fordi ytelsen er for dårlig.
Lenke til kommentar

Ved 2560x1440, vits å tenke på 4GB vram da? Ser ikke slik ut på tester, men er kjekt med litt/mye headroom uansett. Tenker primært på GTX 670.

Av dagens spill var det vel 2 stykk som utnyttet over 2.5 GB, så generelt sett er det ikke verdt det ennå.

Virker jo strengt tatt som om minnebåndbredden har en større påvirkning enn "bare 2GB VRAM" i dagens spill :hmm:

I hvert fall ser det slik ut om man ser på minimum framerate.

Lenke til kommentar

Ved 2560x1440, vits å tenke på 4GB vram da? Ser ikke slik ut på tester, men er kjekt med litt/mye headroom uansett. Tenker primært på GTX 670.

Av dagens spill var det vel 2 stykk som utnyttet over 2.5 GB, så generelt sett er det ikke verdt det ennå.

Virker jo strengt tatt som om minnebåndbredden har en større påvirkning enn "bare 2GB VRAM" i dagens spill :hmm:

I hvert fall ser det slik ut om man ser på minimum framerate.

Hvis du mener minnebåndbredden mellom GPU og videominne så må jeg si meg uenig. 192 GB/s er ikke en betydelig flaskehals for dagens skjermkort, faktisk så har GTX 680 og GTX 580 samme båndbredde tross forskjellig ytelse.

 

Hvis du derimot mener båndbredden fra systemminne til grafikkminne så vil jeg si meg langt mer enig. (I tillegg kommer forsinkelser som er et ennå større problem.)

Lenke til kommentar

Hvis du mener minnebåndbredden mellom GPU og videominne så må jeg si meg uenig. 192 GB/s er ikke en betydelig flaskehals for dagens skjermkort, faktisk så har GTX 680 og GTX 580 samme båndbredde tross forskjellig ytelse.

 

Hvis du derimot mener båndbredden fra systemminne til grafikkminne så vil jeg si meg langt mer enig. (I tillegg kommer forsinkelser som er et ennå større problem.)

Tenkte mer på at AMDs Tahiti-kort stort sett ser ut til å ha mindre (relativt) fall fra average til minimum framerates i tester og at Nvidia-kortene faller betydelig mer når AA og oppløsning kjøres opp i de fleste spill både mot AMD og forgjengeren.

Lenke til kommentar

Tenkte mer på at AMDs Tahiti-kort stort sett ser ut til å ha mindre (relativt) fall fra average til minimum framerates i tester og at Nvidia-kortene faller betydelig mer når AA og oppløsning kjøres opp i de fleste spill både mot AMD og forgjengeren.

Jeg har faktisk sammenlignet alt for lite grafer over ytelse (bilde for bilde) med henhold til AA og oppløsning, og de fleste tester er dessverre med maks 4xMSAA, som egentlig er for lite etter min mening. (Jeg kjører gjerne mine testprogrammer på 16xCSAA)

 

Men hvis du har noen fine grafer å vise til så er jeg veldig interessert. Uansett undres jeg over hvorfor økende grad av AA skal påføre veldig økning i minnetrafikk, siden de nødvendige subteksturene for fragmentet skal allerede være i L2-cache. Ved 4xMSAA er jeg ganske sikker på at det er regnekraften som sette begrensninger først, men gjerne vis om jeg tar feil.

Lenke til kommentar

Jeg har faktisk sammenlignet alt for lite grafer over ytelse (bilde for bilde) med henhold til AA og oppløsning, og de fleste tester er dessverre med maks 4xMSAA, som egentlig er for lite etter min mening. (Jeg kjører gjerne mine testprogrammer på 16xCSAA)

 

Men hvis du har noen fine grafer å vise til så er jeg veldig interessert. Uansett undres jeg over hvorfor økende grad av AA skal påføre veldig økning i minnetrafikk, siden de nødvendige subteksturene for fragmentet skal allerede være i L2-cache. Ved 4xMSAA er jeg ganske sikker på at det er regnekraften som sette begrensninger først, men gjerne vis om jeg tar feil.

Computerbase.de har testet 8xMSAA: http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/4/

680 ender opp en del tregere enn 7970 når 8xMSAA aktiveres fra 4xMSAA, men kan jo hende det har å gjøre med forskjellig ROP-ytelse.

 

http://www.xbitlabs.com/articles/graphics/display/radeon-hd-7970-ghz-edition_9.html#sect0

Det er kun Just Cause 2 og Lost Planet 2 som virkelig bryter trenden med at MSAA tapper 680 mer enn 7970 for ytelse her.

 

MSAA krever vel å sende mye av bildet frem og tilbake for å sammenligne verdier? Jeg driver ikke med grafikkprogrammering, men har forstått det slik at man må ha en ganske stor mengde cache for å ikke måtte kommunisere mot grafikkminnet (har forstått det slik at Xbox 360s 4MB EDRAM er for lite for en oppløsning på 1280x720 med 2xMSAA for dagens spillmotorer.)

Lenke til kommentar

I følge Tomshardware er forskjellen ca 12.1% i favør 7950 i forhold til standard 660.

Tar man også med i betrakningen Gpgpu så er ytelseforskjellen langt større (ca 3x i en god del programmer) igjen i favør 7950.

 

Personlig hadde jeg måttet velge mellom 660 og 670 hadde jeg klart gått for 670 , var valget mellom 660 / 670 og 7950 til omtrent lik pris ville valget falt på et 7950 pga bruksområdet mitt, men kun til spill vil da 670 være et bedre kjøp for tiden.

Det var dog noen testere som påstod at om utviklingen går litt i rettning hvordan Metro2033 har blitt laget så vil det favorisere skjermkort som har en arkitektur som favoriserer gpgpu.

Endret av Malvado
Lenke til kommentar

Det enkleste og beste for de som er gamere var å kjøpe GTX 680 med det samme det kom gode tredjepartskort for så å legge av 500 kr i måneden til neste kort. Da slipper man distraksjoner og kan raskt komme seg tilbake til spillingen.. Ser at enkelte bruker hundrevis av timer på å spare seg til fant. Ser ikke bort ifra at enkelte her inne bruker 500-1000 timer i året på å gå rundt grøten. Bruk noen timer på å skaffe pengene til maskinvaren. Ikke bruk hundrevis av timer på å ikke skaffe maskinvaren. Kjøp maskinvaren, installer den i maskinen og bruk tiden til noe konstruktivt.

 

Dere er hyklere som sløser bort tid verd mye mer penger enn de 1500-2000 dere sparer på å vente 4 måneder på GTX 660 Ti. :tease:

  • Liker 2
Lenke til kommentar

Det enkleste og beste for de som er gamere var å kjøpe GTX 680 med det samme det kom gode tredjepartskort for så å legge av 500 kr i måneden til neste kort. Da slipper man distraksjoner og kan raskt komme seg tilbake til spillingen.. Ser at enkelte bruker hundrevis av timer på å spare seg til fant. Ser ikke bort ifra at enkelte her inne bruker 500-1000 timer i året på å gå rundt grøten. Bruk noen timer på å skaffe pengene til maskinvaren. Ikke bruk hundrevis av timer på å ikke skaffe maskinvaren. Kjøp maskinvaren, installer den i maskinen og bruk tiden til noe konstruktivt.

 

Dere er hyklere som sløser bort tid verd mye mer penger enn de 1500-2000 dere sparer på å vente 4 måneder på GTX 660 Ti. :tease:

Helt enig!

Skal ikkje mange dagene med havregrøt før man har god hardware :D

Lenke til kommentar

Jeg har faktisk sammenlignet alt for lite grafer over ytelse (bilde for bilde) med henhold til AA og oppløsning, og de fleste tester er dessverre med maks 4xMSAA, som egentlig er for lite etter min mening. (Jeg kjører gjerne mine testprogrammer på 16xCSAA)

 

Men hvis du har noen fine grafer å vise til så er jeg veldig interessert. Uansett undres jeg over hvorfor økende grad av AA skal påføre veldig økning i minnetrafikk, siden de nødvendige subteksturene for fragmentet skal allerede være i L2-cache. Ved 4xMSAA er jeg ganske sikker på at det er regnekraften som sette begrensninger først, men gjerne vis om jeg tar feil.

Computerbase.de har testet 8xMSAA: http://www.computerb...-ghz-edition/4/

680 ender opp en del tregere enn 7970 når 8xMSAA aktiveres fra 4xMSAA, men kan jo hende det har å gjøre med forskjellig ROP-ytelse.

 

http://www.xbitlabs....on_9.html#sect0

Det er kun Just Cause 2 og Lost Planet 2 som virkelig bryter trenden med at MSAA tapper 680 mer enn 7970 for ytelse her.

 

MSAA krever vel å sende mye av bildet frem og tilbake for å sammenligne verdier? Jeg driver ikke med grafikkprogrammering, men har forstått det slik at man må ha en ganske stor mengde cache for å ikke måtte kommunisere mot grafikkminnet (har forstått det slik at Xbox 360s 4MB EDRAM er for lite for en oppløsning på 1280x720 med 2xMSAA for dagens spillmotorer.)

Hvor godt gjennomsnittlig FPS skalerer med AA ser ut til å være spillavhengig (dvs. programmeringsavhengig) basert på de tallene der, men det ser ut som Nvidia gjør det klart dårligere på minimum-FPS. Jeg skulle ønske det var høyere AA-nivåer med i sammenligningen. Men den reelle ROP-ytelsen er nok helt klart en viktig faktor her, ta en rask titt på link.

 

Det er litt forskjeller mellom MSAA-implementasjoner, men prinsippet er at 8xMSAA tar 8 samples innenfor hver piksel i et "tilfeldig" mønster (for å jevne ut kanter mest mulig, 4xMSAA kjører derimot gjerne i et fast rutenett). Dette betyr at hver piksel får 8 fragmenter gjennom shaderen, desse utføres i parallell, og til slutt regnes gjennomsnittet ut mellom disse verdiene. Det overføres ikke frem og tilbake.

 

Men dette er egentlig en forenkling av sannheten, for det gjøres egentlig kombinasjoner av coverage samples og multisamples (og eventuelt supersamples). F.eks. Nvidia 295.49 støtter følgende:

2x (2xMS)

4x (4xMS)

8x (4xMS, 4xCS)

8x (4xSS, 2xMS)

16x (4xMS, 12xCS)

8x (8xMS)

16x (8xMS, 8xCS)

Notis: Nyere drivere støtter langt mer enn dette, opptil 32x for GeForce og 64x for Quadro.

Men grunnen til at jeg trekker frem dette er at du ser tre ulike 8xAA i listen over, og disse har ulike egenskaper og ytelse. Ta en titt på link og studér grafen for Unigine (ja jeg vet det er for Linux, men du skjønner poenget når du ser hvordan ulike AA-modi påvirker ytelsen). Nå vet jeg at enkelte drivere og/eller spill kan variere hva de betegner som f.eks. 8xAA, så det er absolutt tenkelig at spillene kjører i annen modus for AMD enn Nvidia. Og det er forskjell på bildekvalitet, både med hensyn på hva som skal rendres og hvor godt hver av produsentene gjør de ulike modiene.

 

For å forklare mer om cache og teksturer for fragment shader, de nødvendige subteksturene er lastet i L2 på forhånd gjennom binding tables (opptil 32 for OpenGL, 128 for Direct3D).

 

Ble du noe klokere av det?

Endret av efikkan
  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...