Gå til innhold

Neste gen Nvidia skjermkort Kepler (GTX - 6xx ?)


_ziggy_

Anbefalte innlegg

Boost forsøker å maksimere ytelsen mot "powertarget", og det sier seg selv at en stor del av denne gevinsten kommer når GPU-lasten egentlig er lav. Hvis f.eks. culling skjuler mange objekter blir lasten plutselig mindre, og klokkefrekvensen kan da økes.

Det motsatte skjer. Selv om power target står på 132% vil kortet holde seg langt unna med mindre det er høy belastning på det. Akkurat nå spiller jeg FIFA 12 og da veksler kortet mellom 630 mhz og 1006 mhz og holder seg under 44% power. Dette til tross for at mine target innstillinger er +160mhz core, +485 mhz memory og 132% power target.

 

EDIT: Uten vsync vel og merke.

 

jeg er på "laget" til efikkan her.

 

boost gjør at gpuen yter mer når programmene ikke drar 100% av gpuen eller effektivt nok.

 

dvs, drar BF3 90% av full power target under load så klokker gpuen seg opp til 110% av frekvens for å gi deg 100% utnyttelse. det sier seg selv at det ikke kan være motsatt vei, rett og slett fordi krevende programmer allerede opptar 100% power target.

Lenke til kommentar
Videoannonse
Annonse

nVidia presenterer boost som at det skal holde utnyttelsen av skjermkortet nærmest mulig power target, og pratet i sin introduksjonsvideo om hvor ofte mye kraft var uutnyttet under spilling.

 

Jeg vet ikke hvor godt dere kjenner til pipeline til GPU, men jeg skal forsøke å forklare problematikken mer i dybden. Ved å klokke opp GPUen oppnås én primært ting; høyere regnekraft og dermed flere operasjoner per sekund. Av erfaring vet jeg at når regnekraften er best mulig utnyttet (dvs. høy parallelitet, minner om 1536 kjerner i GK104), blir også effektforbruket høyt. Så det betyr at i situasjoner der boost har stort potensiale så utnytter ikke shaderen GPUen effektivt nok. Dette skyldes dårlig parallelitet der instruksjoner blir ventende (GPUen blir delvis brakk) og boost hjelper fordi høyrere klokkefrekvens betyr flere operasjoner per sekund og korter ned ventetiden.

 

Men kjernen i problematikken er uansett hvor mye hjelper egentlig boost når du trenger det sammenlignet med hvor mye det trekker opp gjennomsnittet. Hvis boost gir deg 2 ekstra FPS når du har 30 i utgangspunktet, men gir deg 8 ekstra når du har 70, så er det minumumet her vi bør bry oss om. Et mer rettferdig mål på hvor mye boost hjelper vil være et diagram over hvor mye av spilltiden som er under 30 FPS, 40 FPS osv. Hvis skjermfrekvensen er 60 Hz bør alt over regnes som 60 FPS. Et slikt diagram ville illustrert poenget mitt om at boost hjelper mer når du trenger det enn når du ikke trenger det, og at GTX 680 4% ledelse over HD 7970 ikke er så stor likevel. Interessant nok viser nVidias lille introduksjonsvideo til GTX 680 nettopp at boost hjelper mest når FPS i utgangspunktet er høy.

 

Edit:

For å illustrere poenget har jeg konstruert en graf med overdriving:

 

 

post-63307-0-10962800-1336909561_thumb.png

La oss si sort er HD 7970, rød GTX 680 uten boost og grønn GTX 680 med boost. Den horisontale linjen representerer skjermfrekvensen. Det bør ikke kreves store matematiske kunnskaper for å forstå hvorfor boost ødelgger gjennomsnittsverdien til GTX 680.

 

 

Endret av efikkan
Lenke til kommentar

Poenget mitt er så enkelt at så lenge man ikke når powertarget i praksis så endrer ikke klokkefrekvensen seg.

 

Da ser jeg heller ikke hvordan gjennomsnittsmålingene blir feil som effikan hevder(for min egendel så er min målinger viktigere enn avg målinger).

Er ikke verre en at teori og praksis ikke nødvendigvis stemmer overens pga vi ikke har nok strømtrekk.

Har kan godt vær noen hull i teorien min her da jeg ikke har kjørt stock.

 

Mulig det er aplikasjoner som presser opp strømforbruket såpass at man når powertarget, men jeg har enda ikke sett dem.

Senker vi target til 70% så vil jeg tro vi når grensen og kortet derater seg selv.

 

Da ser jeg helt bort fra tempraturer for enkelhets skyld.

Lenke til kommentar

Poenget mitt er så enkelt at så lenge man ikke når powertarget i praksis så endrer ikke klokkefrekvensen seg.

Dette er også mitt inntrykk.

Skjønner poenget til efikkan, men jeg ser at under BF3 gaming er boost konstant på (maks clock).

Slik sett kan man se på "boost" funksjonen mer som en strømsparingsfunksjon, ala EIST. Kortet kan egentlig fint kjøre 1100mhz+, men klokker seg "ned" til base når man ikke trenger det.

Lenke til kommentar

Dette er også mitt inntrykk.

Skjønner poenget til efikkan, men jeg ser at under BF3 gaming er boost konstant på (maks clock).

Slik sett kan man se på "boost" funksjonen mer som en strømsparingsfunksjon, ala EIST. Kortet kan egentlig fint kjøre 1100mhz+, men klokker seg "ned" til base når man ikke trenger det.

Exactly :woot:
Lenke til kommentar

Ok... nå skjønner jeg ingenting.

Jeg prøvde å tvinge frem et scenario for å sjekke om 70c grader gjør at kortet klokker ned, men det ser ikke ut til å være tilfelle, for meg i det minste.

 

Satte viften manuelt 35%, +132 / +140 / +400 overklokk, Kjørte 3Dmark11 over x3 loop, temperaturen kom opp til max. 78c hvor boost klokken lå konstant på ~1230-1238. Den ble aldri klokket ned til default.

Sjekket de samme instillingene i BF3 gameplay over 30min. og jeg fikk samme resultat.

 

Merkelig :huh:

Endret av KimmiK
Lenke til kommentar

På mitt klokker det ned ca 20-25 mhz over 70 grader, da fra 1263 mhz til 1243, eller 1300mhz til 1280.

Ikke til default.

 

Poenget mitt var vel at det rett og slett ikke er en signifikant forskjell og kan vel ikke sammenlignes med en "trigger" hvor kortet klokker ned for å redusere temperaturen. Var vel dette inntrykket jeg har fått av diverse poster i denne tråden. Men jeg vet ikke - jeg er uansett fornøyd med klokken jeg kjører på luft, så får vi se når jeg får blokkene fra EK. :)

Lenke til kommentar

Bestilte meg 2 stk Gigabyte Windforce 3X GTX 670, for å bruke dem på hovedpcen med 30". Skal spille spill med 2560X1600 og all eyecandy på, og ha over 60fps.

 

Trodde jeg gjorde et godt kjøp her i forhold til GTX 680, men kompisene sier jeg heller burde kjøpt 2 X GTX 680 med 4GB fordi 2560X1600 med all eyecandy krever mer enn 2GB :(

 

Ordren ligger fortsatt åpen på Komplett, så jeg kan avbestille.

 

Hva mener dere eksperter?

Endret av TXD1979
Lenke til kommentar

 

Hva mener dere eksperter?

 

Det er definitivt lurt med mer minne når du øker oppløsningen , problemet med 680 er ventetiden.

Om du ikke gidder å vente så mye så vil du få god ytelse med 2x 7970 med 3Gb minne og med en lite støyende kjøler.

Hvis ikke hadde jeg vurdert 690 om du kan få tak i et , men da må du være heldig for å få tak i et.

 

Mange gamere forresten som kjøper utrolig gode skjermkort men glemmer å investere i en god nok skjerm, sjekk maks oppløsningen på skjermen din før du kjøper i alle fall i tilfelle den ikke dekker høyere oppløsninger enn 1980x1280 feks.

Lenke til kommentar

Hva mener dere eksperter?

 

Det er definitivt lurt med mer minne når du øker oppløsningen , problemet med 680 er ventetiden.

Om du ikke gidder å vente så mye så vil du få god ytelse med 2x 7970 med 3Gb minne og med en lite støyende kjøler.

Hvis ikke hadde jeg vurdert 690 om du kan få tak i et , men da må du være heldig for å få tak i et.

 

Mange gamere forresten som kjøper utrolig gode skjermkort men glemmer å investere i en god nok skjerm, sjekk maks oppløsningen på skjermen din før du kjøper i alle fall i tilfelle den ikke dekker høyere oppløsninger enn 1980x1280 feks.

Takker for tips! Skjermen min er en HP zr30w (eller hva den nå heter) og støtter 2560X1600 :)

Endret av TXD1979
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...