Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

Overklokking av Kepler, kan noen fortelle meg om jeg har forstått det rett?


Anbefalte innlegg

Jeg tar utgangspunkt i mitt GTX 670 kort. Dette kortet er 980MHz og boostes derfra oppover.

 

Ser noen klarer å klokke kort til over 1200MHz. Men betyr dette at de booster med samme differanse?

 

Jeg har klokket mitt til f.eks 1100MHz og ser jeg booster til rundt 1300MHz i spill (bruker grafen i Evga Precision).

 

Så ser jeg f.eks KF2 sin extreme 1268MHz versjon av GTX 680, som er 1202MHz som altså gir boost på 1268. Regner med det går enda høyere enn 1300MHz i spill, men hva setter stopperen her? Booster det over 1400MHz?

 

Jeg sliter med å skjønne dette, men forstår det altså sånn at +200MHz på 2 identiske kort, ikke trenger bety at de booster likt.

 

Ble litt rotete, men dere skjønner sikkert hva jeg mener.

Lenke til kommentar
Videoannonse
Annonse

Takk for link arni90 :)

 

Jeg tenker slik at om jeg klokker kortet mitt til 120MHz over, eller 140Mhz over standard, så når jeg uansett et "tak" på rundt 1300MHz. Jeg ser da ikke helt vitsen med å drive å finnstille på "sliden" i PrecisionX, da jeg likevel ikke kommer høyere (tror jeg...)

Lenke til kommentar

Kortene har en innebygget dynamisk overklokkingsfunksjon, den fungerer helt av seg selv.

Hvis du kjører en benchmark (f.eks. Heaven) og følger med på hardware monitor i Precision X kan du se hvordan det virker.

Mitt kort har en max boost på 130Mhz, det vil si at hvis jeg setter kortet på 1000Mhz så kan driveren legge til 130Mhz hvis forholdene er tilstede (høy gpu-bruk og kortet ikke overskrider grensene for temperatur og energibruk/power treshold).

Disse 130Mhz kalles for Kepler-boost, denne boosten reduseres når kortet når 70 grader for å holde kontroll på varmen.

 

Kortet mitt er et Asus DirectCUII, det har ifølge specs en kjernefrekvens på 915Mhz, dette er ganske langt unna de 1300Mhz jeg faktisk kjører kortet på.

Lenke til kommentar

Jeg sliter med å skjønne dette, men forstår det altså sånn at +200MHz på 2 identiske kort, ikke trenger bety at de booster likt.

Etter hva Brettjv har skrevet på OCN angående dette er det slik jeg har forstått det også.

Jeg syns dette er noe forstyrrende, du vet jo i praksis ikke hvor mye ytelse du får.

 

Akkurat dette skiller seg ikke fra andre former for overklokking. Hvis du kjøper et skjermkort så er ikke det gitt hvor mye dette vil la seg overklokke. Ved kjøp av et GTX 670 vil du aldri få en klokk som er lavere enn de spesifikasjonene som er oppgitt.

Lenke til kommentar

Jeg sliter med å skjønne dette, men forstår det altså sånn at +200MHz på 2 identiske kort, ikke trenger bety at de booster likt.

Etter hva Brettjv har skrevet på OCN angående dette er det slik jeg har forstått det også.

Jeg syns dette er noe forstyrrende, du vet jo i praksis ikke hvor mye ytelse du får.

 

Akkurat dette skiller seg ikke fra andre former for overklokking. Hvis du kjøper et skjermkort så er ikke det gitt hvor mye dette vil la seg overklokke. Ved kjøp av et GTX 670 vil du aldri få en klokk som er lavere enn de spesifikasjonene som er oppgitt.

Jo, for dette har ikke med overklokking å gjøre:

Kjøper du to GTX 680 vil de ikke yte nøyaktig det samme ut av eska eller likt som kortet Hardware.no fikk.

Lagt merke til at Nvidia kaller det "Average Boost Clock" og ikke minimum Boost Clock? Det eneste Nvidia garanterer er at du vil få et kort som kjører på 915MHz (670) eller 1006MHz (680) og alt over det ut av eska er avhengig av flaks.

 

Konseptet er helt sykt.

  • Liker 1
Lenke til kommentar

http://www.geforce.c.../specifications

 

Er dette gjennomsnitt per kort, eller for alle kortene?

http://www.anandtech...tx-680-review/4

The “Boost Clock” is the average clock frequency the GPU will run under load in many typical non-TDP apps that require less GPU power consumption. On average, the typical Boost Clock provided by GPU Boost in GeForce GTX 680 is 1058MHz, an improvement of just over 5%. The Boost Clock is a typical clock level achieved running a typical game in a typical environment

In other words, when the average GTX 680 is boosting it reaches 1058MHz on average.

Gjennomsnitt ja, kule greier.

 

Noe annet som er bekymringsverdig er at Nvidia kan ha sendt inn 680-kort med en ekstremt god Kepler Boost sammenlignet med hva det gjennomsnittlige kortet leverer. Uansett kan du ikke kjøpe et 680 på Komplett og forvente å få samme resultater som Anandtech eller Hardware.no fikk.

 

Men på en annen side er du garantert at alle 680 spiser like mye strøm ut av eska uansett ytelse :nei2:

Endret av arni90
Lenke til kommentar

slik sett så vil jo ikke minimumsboosten være av veldig stor relevans siden under tung load så tilsier jo kommenteren fra "NVIDIA" at klokken vil være endel høyere enn et gjennomsnitt på 1058. Minimumboosten vil jo kun benyttes i de tilfellene kortene kan få "hvile". Boosten er dynamisk, så den vil tilpasse seg nødvendig ytelse i forhold til last. Kortet vil selvsagt bruke maksboost sålenge kortet er under tung load, slik som under et heaven run eller lignende.

 

De fleste anmeldelser av GTX 680 kort oppgir maksboost. Linken du viser til har f.eks en maksboost opp til 1110mhz. Dette er en maksboost som virker naturlig med tanke på en gjennomsnittsboost på 1058mhz ved å kjøre et typisk spill under typiske omgivelser (hva nå enn det vil si). Dette er barneskole matematikk.

 

Selvsagt, hvis en anmeldelse ikke oppgir maksboost eller at den oppgitte maksboosten avviker mye fra den oppgitte gjennomsnittsboosten fra nvidia så ville jeg nok vært kritisk til anmeldelsen. Mye av relevansen til anmeldelsen ligger i at de benytter kort som ligger innenfor passende intervall.

Lenke til kommentar

slik sett så vil jo ikke minimumsboosten være av veldig stor relevans siden under tung load så tilsier jo kommenteren fra "NVIDIA" at klokken vil være endel høyere enn et gjennomsnitt på 1058. Minimumboosten vil jo kun benyttes i de tilfellene kortene kan få "hvile". Boosten er dynamisk, så den vil tilpasse seg nødvendig ytelse i forhold til last. Kortet vil selvsagt bruke maksboost sålenge kortet er under tung load, slik som under et heaven run eller lignende.

Slik Nvidia har beskrevt Kepler Boost vil den virke minst når strømforbruket er størst, altså synker ytelsen enda mer når det blir tyngre situasjoner og ytelsen stiger når det blir lettere situasjoner for grafikkortet hvis kortet stanger inn mot Boosten konstant. Eller på en annen måte: Boosten er kun avhengig av temperatur og effektforbruk.

 

Eller en veldig effektiv måte å forbedre benchmarks på, slik den er beskrevet å fungere. Hvordan det er i praksis vet jeg ikke.

De fleste anmeldelser av GTX 680 kort oppgir maksboost. Linken du viser til har f.eks en maksboost opp til 1110mhz. Dette er en maksboost som virker naturlig med tanke på en gjennomsnittsboost på 1058mhz ved å kjøre et typisk spill under typiske omgivelser (hva nå enn det vil si). Dette er barneskole matematikk.

5% til eller fra er faktisk nok til å tippe en haug med benchmarks mot rødt eller grønt denne gangen, som vi etterpå så et gjensyn med i form av 7970 GHz Edition. +10% klokkefrekvens er også mer enn et lite avvik fra en "gjennomsnttlig" +5% standard forbedring, eller altså dobbelt så mye Kepler Boost over standard.

 

MItt hovedproblem er uansett at du er ikke mer enn ~95% sikker på hvor mye ytelse du får når du kjøper et GTX 670/680/690, ikke problemet med at benchmarks mister kredibilitet.

  • Liker 1
Lenke til kommentar

slik sett så vil jo ikke minimumsboosten være av veldig stor relevans siden under tung load så tilsier jo kommenteren fra "NVIDIA" at klokken vil være endel høyere enn et gjennomsnitt på 1058. Minimumboosten vil jo kun benyttes i de tilfellene kortene kan få "hvile". Boosten er dynamisk, så den vil tilpasse seg nødvendig ytelse i forhold til last. Kortet vil selvsagt bruke maksboost sålenge kortet er under tung load, slik som under et heaven run eller lignende.

Slik Nvidia har beskrevt Kepler Boost vil den virke minst når strømforbruket er størst, altså synker ytelsen enda mer når det blir tyngre situasjoner og ytelsen stiger når det blir lettere situasjoner for grafikkortet hvis kortet stanger inn mot Boosten konstant. Eller på en annen måte: Boosten er kun avhengig av temperatur og effektforbruk.

 

Eller en veldig effektiv måte å forbedre benchmarks på, slik den er beskrevet å fungere. Hvordan det er i praksis vet jeg ikke.

De fleste anmeldelser av GTX 680 kort oppgir maksboost. Linken du viser til har f.eks en maksboost opp til 1110mhz. Dette er en maksboost som virker naturlig med tanke på en gjennomsnittsboost på 1058mhz ved å kjøre et typisk spill under typiske omgivelser (hva nå enn det vil si). Dette er barneskole matematikk.

5% til eller fra er faktisk nok til å tippe en haug med benchmarks mot rødt eller grønt denne gangen, som vi etterpå så et gjensyn med i form av 7970 GHz Edition. +10% klokkefrekvens er også mer enn et lite avvik fra en "gjennomsnttlig" +5% standard forbedring, eller altså dobbelt så mye Kepler Boost over standard.

 

MItt hovedproblem er uansett at du er ikke mer enn ~95% sikker på hvor mye ytelse du får når du kjøper et GTX 670/680/690, ikke problemet med at benchmarks mister kredibilitet.

 

Kepler boosten ramler bittelitt (12 - 13MHz) når man enten overstiger 100% powertarget, eller når man overstiger 70c på GPU. Powertarget kan justeres opp i programmer som MSI afterburner, slik at den ikke dropper når den overstiger 100%. Det er også enkelt å holde under 70c (stillegående) på ikke-referansekort, som ASUS DC II eller Gigabyte Windforce 3x.

 

Når dette er sagt, så får man faktisk alltid bedre ytelse enn det som er oppgitt av standard klokkefrekvenser, grunnet Kepler boost.

 

Eksempel: Mine 2 ASUS GTX 670 Direct CU II har en oppgitt boost på 980MHz. I praksis kjører de henholdsvis 1084MHz og 1124MHz Kepler boost under spilling. Man får faktisk alltid høyere boost enn det som blir oppgitt som standard på disse kortene. Så det er uansett en vinn vinn situasjon.

Endret av Mann_Av_Gull
Lenke til kommentar

Kepler boosten ramler bittelitt (12 - 13MHz) når man enten overstiger 100% powertarget, eller når man overstiger 70c på GPU. Powertarget kan justeres opp i programmer som MSI afterburner, slik at den ikke dropper når den overstiger 100%. Det er også enkelt å holde under 70c (stillegående) på ikke-referansekort, som ASUS DC II eller Gigabyte Windforce 3x.

 

Tviler ikke, høres rimelig ut det så lenge man ikke har problemer med å kjøre et grafikkort utenfor spesifikasjonene sine (dog er spesifikasjonene noe løse med Kepler Boost).

Når dette er sagt, så får man faktisk alltid bedre ytelse enn det som er oppgitt av standard klokkefrekvenser, grunnet Kepler boost.

Hva er standard ytelse?

Det er ingen side som kan teste et Kepler-kort basert på GK104 som ikke har Kepler Boost.

Eksempel: Mine 2 ASUS GTX 670 Direct CU II har en oppgitt boost på 980MHz. I praksis kjører de henholdsvis 1084MHz og 1124MHz Kepler boost under spilling. Man får faktisk alltid høyere boost enn det som blir oppgitt som standard på disse kortene. Så det er uansett en vinn vinn situasjon.

Er det etter du har økt Power Target og vifteprofilen med tredjepartsprogrammer eller før?

 

Er det en vinn-vinn situasjon når kortet du får ikke yter det samme som test-kortet sendt til Hardware.no?

Er det en vinn-vinn situasjon når kortet du får ikke yter likt naboen sitt "identiske"?

 

Hadde det vært snakk om å vri om en bryter til et BIOS #2 med variabel Kepler Boost og BIOS #1 hadde låst Kepler Boost hadde det vært helt greit for meg, da er man i det minste 100% sikker på hva minimumsnivået er istedet for å kjøpe et 670/680 og håpe på det beste. Det er nemlig ikke majoriteten som overklokker, selv ikke blant kjøperne av entusiastkort.

 

EDIT:

Hvis du ikke har skjønt det enda er jeg av prinsipp imot Kepler Boost, ideen er god, men utførelsen er totalt misledende.

Endret av arni90
  • Liker 1
Lenke til kommentar

Kepler boosten ramler bittelitt (12 - 13MHz) når man enten overstiger 100% powertarget, eller når man overstiger 70c på GPU. Powertarget kan justeres opp i programmer som MSI afterburner, slik at den ikke dropper når den overstiger 100%. Det er også enkelt å holde under 70c (stillegående) på ikke-referansekort, som ASUS DC II eller Gigabyte Windforce 3x.

 

Tviler ikke, høres rimelig ut det så lenge man ikke har problemer med å kjøre et grafikkort utenfor spesifikasjonene sine (dog er spesifikasjonene noe løse med Kepler Boost).

Når dette er sagt, så får man faktisk alltid bedre ytelse enn det som er oppgitt av standard klokkefrekvenser, grunnet Kepler boost.

Hva er standard ytelse?

Det er ingen side som kan teste et Kepler-kort basert på GK104 som ikke har Kepler Boost.

Eksempel: Mine 2 ASUS GTX 670 Direct CU II har en oppgitt boost på 980MHz. I praksis kjører de henholdsvis 1084MHz og 1124MHz Kepler boost under spilling. Man får faktisk alltid høyere boost enn det som blir oppgitt som standard på disse kortene. Så det er uansett en vinn vinn situasjon.

Er det etter du har økt Power Target og vifteprofilen med tredjepartsprogrammer eller før?

 

Er det en vinn-vinn situasjon når kortet du får ikke yter det samme som test-kortet sendt til Hardware.no?

Er det en vinn-vinn situasjon når kortet du får ikke yter likt naboen sitt "identiske"?

 

Hadde det vært snakk om å vri om en bryter til et BIOS #2 med variabel Kepler Boost og BIOS #1 hadde låst Kepler Boost hadde det vært helt greit for meg, da er man i det minste 100% sikker på hva minimumsnivået er istedet for å kjøpe et 670/680 og håpe på det beste. Det er nemlig ikke majoriteten som overklokker, selv ikke blant kjøperne av entusiastkort.

 

Dette er uten å ha justert powertarget og vifteprofil. Men i noen få av de mest krevende spillene, som The Witcher 2 så kan kortene ramle bittelitt under de frekvensene jeg oppga her, hvis jeg ikke endrer litt på vifteprofil og powertarget. Men det er fordi jeg kjører SLI og toppkortet blir mye varmere enn bunnkortet.

 

Kepler Boosten varierer aldri så voldsomt mye på kort som ikke er 'fabrikklokkede' at det vil utgjøre noen store forskjeller i benchmarks. Litt forskjeller kan der bli, men det er nå slik Kepler fungerer.

 

Uansett så får man mer enn det som er oppgitt når man kjøper et Kepler kort.

 

Edit: arni90, jo jeg har skjønt at du er imot Kepler Boost.

Endret av Mann_Av_Gull
Lenke til kommentar

Siden du velger hva du vil kommentere istedet for å svare på alt:

Uansett så får man mer enn det som er oppgitt når man kjøper et Kepler kort.

Mer enn oppgitt klokkefrekvens kan jeg være enig i, men:

Hva er oppgitt ytelse?

Får du mer/lik ytelse enn Techpowerup/Tom's Hardware/etc. fikk da de testet sitt DirectCU-kort?

Lenke til kommentar

Siden du velger hva du vil kommentere istedet for å svare på alt:

Uansett så får man mer enn det som er oppgitt når man kjøper et Kepler kort.

Mer enn oppgitt klokkefrekvens kan jeg være enig i, men:

Hva er oppgitt ytelse?

Får du mer/lik ytelse enn Techpowerup/Tom's Hardware/etc. fikk da de testet sitt DirectCU-kort?

 

Som vi allerede vet, så varierer den faktiske Kepler Boosten litt. Men den er alltid høyere enn det som er oppgitt fra fabrikk.

 

Men klart, hvis Tom's Hardware tester et kort som har oppgitt boost på 980MHz og har en faktisk Kepler Boost på 1184MHz, jeg kjøper det samme kortet (også oppgitt til 980MHz) og får en faktisk Kepler Boost på 1084MHz så blir det litt forskjell i praksis. Men ikke så mye at det vil ha noe å si for spilling, eller merkes i annet enn kanskje litt i noen bencmarks.

 

Jeg skal tildels være enig med deg at dette er litt dumt på noen måter, men det utgjør ikke noe særlig stor forskjell i spilling. Det er nå egang slik det er. Og hvis man er veldig imot dette (At Kepler Boosten varierer litt fra kort til kort. Selv om man alltid får høyere Boost enn det som er oppgitt fra produsent) så får man heller la være å kjøpe Kepler.

 

Jeg lar faktisk powertarget være på 100% nå. Lar kortene selv styre. I verste fall klokker de bittelitt ned, men holder effekten nede. Ikke noe som går ut over spilling eller noe merkbart. GTX 670 har sykt mye ytelse med tanke på at det ligger og drar ca. 140 - 150w i spilling.

 

Men som sagt, har forstått at du ikke har sansen for Kepler Boosten, og det er vel en grunn til at du personlig har valgt AMD 7970.

Lenke til kommentar

Jeg tror vel heller ikke at folk som overhodet aldri har overklokket eller kommer til å overklokke driver å kjører så veldig mye benchmarks og sammenligner med hardwaresider eller naboen for å se om det er 2% forskjell ytelse på samme kort ;) Tror heller slike personer kjøper et kort, monterer det og spiller i vei.

Lenke til kommentar

5% til eller fra er faktisk nok til å tippe en haug med benchmarks mot rødt eller grønt denne gangen, som vi etterpå så et gjensyn med i form av 7970 GHz Edition. +10% klokkefrekvens er også mer enn et lite avvik fra en "gjennomsnttlig" +5% standard forbedring, eller altså dobbelt så mye Kepler Boost over standard.

Om det er dobbelt så mye som en standard forbedring har egentlig ikke så mye å si hvis man ikke har fordelingen til "klokkene" i de relevante scenariene. Erfaringsmessig benytter gtx 680 mye tid på klokk uten noen form for boost i dagens spill (ved standardoppløsningen 1080p).

 

MItt hovedproblem er uansett at du er ikke mer enn ~95% sikker på hvor mye ytelse du får når du kjøper et GTX 670/680/690, ikke problemet med at benchmarks mister kredibilitet.

 

Dette er problem som er vanskelig å svare på uten å ha fordelingen til GTX 6xx kortene.

Lenke til kommentar

Men klart, hvis Tom's Hardware tester et kort som har oppgitt boost på 980MHz og har en faktisk Kepler Boost på 1184MHz, jeg kjøper det samme kortet (også oppgitt til 980MHz) og får en faktisk Kepler Boost på 1084MHz så blir det litt forskjell i praksis. Men ikke så mye at det vil ha noe å si for spilling, eller merkes i annet enn kanskje litt i noen bencmarks.

Det har ikke så mye å si til eller fra i spill eller benchmarks, men det er nok til å tippe resultatene akkurat nok i Nvidias favør til at GTX 600-kortene ser så gode ut på papiret.

Men som sagt, har forstått at du ikke har sansen for Kepler Boosten, og det er vel en grunn til at du personlig har valgt AMD 7970.

Jeg kjøpte 7970 fordi: det var førstemann ute på 28nm og dermed til en viss grad fremtidssikkert, jeg hadde akkurat fått penger fra "feriejobb" i romjula, jeg ville ha en oppgradering fra 6950 CFX som var mulig å vannkjøle, og det virket spennende å klokke. Det har innfridd alle disse forventningene mine og i noen tilfeller en del mer ;)

 

Kepler Boosts implementering slik den er nå er ikke noe som hadde hindret meg i å kjøpe et kort fra Nvidia om jeg var på utkikk etter en oppgradering og det var klart bedre enn AMDs kort, men når det er såpass jevnt som det er nå ytelsesmessig og AMDs 7970-kort har andre fordeler tror jeg at jeg fortsatt hadde valgt et 7970 i dag.

  • Liker 1
Lenke til kommentar

Personlig så bryr jeg meg lite om AMD er 3% bedre enn Nvidia eller omvendt. Jeg ser på lavere effekt = mindre støy og har alltid vært generelt mer komfortabel med Nvidia's driver kontrollpanel VS AMD/ATI.

 

Det blir ofte veldig smak og behag når det gjelder slike ting. AMD og Nvidia har så og si jevngode kort for tiden, og begge har sine fordeler og ulemper. Så blir opp til hver enkelt hva de foretrekker.

 

Hadde GTX 570 kortet mitt tatt kveld tidligere enn det gjorde, altså før GTX 670/680 ble lansert, så kan det godt hende jeg også hadde sittet på et 7950/7970 nå.

Endret av Mann_Av_Gull
Lenke til kommentar

Personlig så bryr jeg meg lite om AMD er 3% bedre enn Nvidia eller omvendt. Jeg ser på lavere effekt = mindre støy og har alltid vært generelt mer komfortabel med Nvidia's driver kontrollpanel VS AMD/ATI.

Påstanden din om at du fokuserer på lavere effekt/støy er selvmotsigende, HD 6970 hadde en tilsvarende ledelse over 570 som 670 har over 7970, techpowerup måler strømtrekket og spenningen fra PCIe-pluggene og fra PCIe-porten og er derfor jeg bruker dem som kilde her. Støy er avhengig av kjøling, og standardkjølingen fra AMD/Nvidia er ikke god til annet enn å tilby gode temperaturer med uakseptabel støy.

 

Nvidias kontrollpanel er jo et rot uten like når jeg ser på det nå, mye bedre med RadeonPro som er oversiktlig og bruker skjermen langt bedre.

 

Siterte ikke resten fordi det ikke er mye å si på det.

Endret av arni90
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...