Gå til innhold

EVGA GeForce GTX 780 / 780 Ti Classified


0l3M

Anbefalte innlegg

Okay :) Har stilt ned PCI-E Volten nå.

Jeg har ikke Tomb Rader installert nå, men kan jo installere det på nytt.

Det virker som temperaturen på kortet blir vanvittig varmt hvis jeg går noe høyere en 1650mhz.

Men det er vel egentlig raskt nok :p Så kansje jeg bare skal ha det sånn som det er nå :)

Lenke til kommentar
Videoannonse
Annonse

Minneklokken har ingenting med ASIC å gjøre, det har med om du har Samsung/Hynix eller Elpida minnechips. Den første batchen med Classy hadde Samsung = veldig god minneklokk. Den siste batchen nå virker det som de fleste kortene har Elpida-minne, inkludert mitt.

Alle 780 kort som blir laget nå, uavhengig av produsent, kommer vel med Elpida minne nå siden det ikke er Samsung minne å få tak i, dette er i hvertfall det EVGA sier.

Endret av Minhund
  • Liker 1
Lenke til kommentar

Hmm, lurer på hvor alt samsungminnet forsvinner?

Kanskje de har innsett at samsungminnet er for overkill og velger å bruke det i noen kommende skjermkort?
GTX 790, eller Titan Ultra eller noe i den duren? :D

 

Det er vel ikke helt urealistisk å håpe på at Nvidia velger å lansere en Geforce-GPU som er "flawless", altså de GK110 brikkene som kommer seg gjennom produksjonsprosessen med alle 15 SMXene i behold.

Kanskje de venter på AMD sitt trekk, eller at Tesla K20 fortsatt selger for godt til at det lønner seg å gi entusiastene ett billigere Geforce-kort.

Siste alternativ er vel i såfall at de f.eks prøver å forbedre designet for å få bedre yields, og at man først ser det i kort som GTX 880.

Lenke til kommentar

Hmm, lurer på hvor alt samsungminnet forsvinner?

 

Kanskje de har innsett at samsungminnet er for overkill og velger å bruke det i noen kommende skjermkort?

GTX 790, eller Titan Ultra eller noe i den duren? :D

 

Det er vel ikke helt urealistisk å håpe på at Nvidia velger å lansere en Geforce-GPU som er "flawless", altså de GK110 brikkene som kommer seg gjennom produksjonsprosessen med alle 15 SMXene i behold.

Kanskje de venter på AMD sitt trekk, eller at Tesla K20 fortsatt selger for godt til at det lønner seg å gi entusiastene ett billigere Geforce-kort.

 

Siste alternativ er vel i såfall at de f.eks prøver å forbedre designet for å få bedre yields, og at man først ser det i kort som GTX 880.

 

Samsungminnet forsvinner vel til GTX 770 korta?

 

Kan også fortelle at jeg har samsungminne både på mine Titankort og Classy kort :p

 

Ganske lett å se at man har samsungminne. Mine Classykort i SLI klarer lett +800 på minnet, altså 7600mhz med bare 1.65v.

Endret av Nizzen
Lenke til kommentar

Ser ut til at min 2500k @ 4.5ghz ikke klarer å holde følge med classy i battlefield 3 :(

Når jeg kjører den på stock hastigheter, så ligger gpu load på cirka 90-99% og spillet flytter greit, men hvis jeg setter opp hastigheten til 1200 på core og 1800 på minnet, så synker gpu load ned til 50-80, og det begynner å lagge smått men sikkert :O

CPU load på kjerne nr1 ligger på cirka 98%, mens de tre andre kjernene ligger på rundt 50-60%.

Har ikke det problemet i andre spill, da ligger gpu load på 100% selv når det er overklokka.

Kjører 120hz foressten.

 

Virker litt rart at 4.5ghz cpu ikke klarer å holde følge med et singel kort, og hvorfor får core1 så mye belastning mens de tre andre ikke?

BF3 som er bugget kanskje? Håper isåfall det blir bedre optimalisert i BF4.

Endret av Iceman22
Lenke til kommentar

Det er ikke noen bugg, men manglende optimalisering. Nå er nok BF3 langt bedre enn mange andre spill, men fortsatt litt fra toppen. Og med optimalisering så tenker jeg da hovedsakelig på at de ikke helt klart klarer å fordele lasten på kjernene, og at de ikke klarer å overføre lasten til dedikert maskinvare (grafikkortet).

Det blir nok sikkert noe bedre i BF4. Det er vel i hvert fall forventet at verden går fremover, også i software.

Btw: Det er en svært vanskelig oppgave å skrive et spill slik at alle kjerner klarer å bli tatt i bruk, og følgelig er det nesten ingen spill som klarer å utnytte alle 4 kjernene helt ut. Prosessoren brukes jo hovedsakelig ikke til tunge parellelle utregninger, da skjermkortet er desidert best her.

 

Så de utregningene som har svært lav parallellitet er det CPUen som står for, og dermed vil slike laster ikke utnyttes av flere kjerner. Men om det er flere forskjellige typer utregninger som CPUen må stå for så kan de utnytte andre kjerner for dette, men det er jo langt fra alltid at disse krever like mye (og følgelig er det en kjerne som alltid vil jobbe mest)

 

 

Ser ut til at min 2500k @ 4.5ghz ikke klarer å holde følge med classy i battlefield 3 :(

Når jeg kjører den på stock hastigheter, så ligger gpu load på cirka 90-99% og spillet flytter greit, men hvis jeg setter opp hastigheten til 1200 på core og 1800 på minnet, så synker gpu load ned til 50-80, og det begynner å lagge smått men sikkert :O

Husk at selv en CPU på 1,1 Milliarder transistorer som opererer på 4,5 GHz, så skal det litt for å kunne ta å hamle opp med en grafikkprosessor som har 7,1 Milliarder transistorer på 1,2 GHz og med lokalt minne som opererer med 10 ganger så høy båndbredde. ;)

 

Men du skal ikke få LAVERE ytelse om du OC GPUen slik at du flytter flaskehalsen over på CPU. Ytelseøkningen kan stagnere, men om ytelsen altså faller og du mener det begynner å lagge så er det noe annet som er galt. Noen ganger så har ting bugget seg med for høy overklokk, så kanskje senke frekvensen litt på GPUen. F.eks en 20-30 MHz ned burde fjerne problemet i sådann.

Endret av Andrull
Lenke til kommentar

Det er ikke noen bugg, men manglende optimalisering. Nå er nok BF3 langt bedre enn mange andre spill, men fortsatt litt fra toppen. Og med optimalisering så tenker jeg da hovedsakelig på at de ikke helt klart klarer å fordele lasten på kjernene, og at de ikke klarer å overføre lasten til dedikert maskinvare (grafikkortet).

 

Det blir nok sikkert noe bedre i BF4. Det er vel i hvert fall forventet at verden går fremover, også i software.

 

Btw: Det er en svært vanskelig oppgave å skrive et spill slik at alle kjerner klarer å bli tatt i bruk, og følgelig er det nesten ingen spill som klarer å utnytte alle 4 kjernene helt ut. Prosessoren brukes jo hovedsakelig ikke til tunge parellelle utregninger, da skjermkortet er desidert best her.

 

Så de utregningene som har svært lav parallellitet er det CPUen som står for, og dermed vil slike laster ikke utnyttes av flere kjerner. Men om det er flere forskjellige typer utregninger som CPUen må stå for så kan de utnytte andre kjerner for dette, men det er jo langt fra alltid at disse krever like mye (og følgelig er det en kjerne som alltid vil jobbe mest)

 

Husk at selv en CPU på 1,1 Milliarder transistorer som opererer på 4,5 GHz, så skal det litt for å kunne ta å hamle opp med en grafikkprosessor som har 7,1 Milliarder transistorer på 1,2 GHz og med lokalt minne som opererer med 10 ganger så høy båndbredde. ;)

 

Men du skal ikke få LAVERE ytelse om du OC GPUen slik at du flytter flaskehalsen over på CPU. Ytelseøkningen kan stagnere, men om ytelsen altså faller og du mener det begynner å lagge så er det noe annet som er galt. Noen ganger så har ting bugget seg med for høy overklokk, så kanskje senke frekvensen litt på GPUen. F.eks en 20-30 MHz ned burde fjerne problemet i sådann.

 

Gpu load går ned med engang jeg klokker opp skjermkortet, det lagger ikke voldsomt, men merker "microstuttering", at det småhakker cirka hvert 20sek, tror det er pg.a. cpuen som får større belastning.

 

60fps, 98% gpu load uten overklokk, med overklokk 64fps 98% gpu load.

Cpu kjerne1 ligger på 95-100%, mens de tre andre cirka 50-60%.

Endret av Iceman22
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...