Gå til innhold
Presidentvalget i USA 2024 ×

GeForce Gtx 10**/Titan og Pascal tråden


Anbefalte innlegg

 

Tok en 3dmark firestrike Extreme test, siden det var så lenge siden :p

2x TX

http://www.3dmark.com/fs/8671143

 

Er det noen med 2x 1080 FE som slår denne scoren lett?   :green:

Hoppet inn noen plasser(39. plass) over deg med 17893 poeng. 

 

http://www.3dmark.com/fs/8674800

 

Har en 5820k, vet ikke hvor mye prosessor påvirker totalscoren?

 

Flott, tusen takk!

 

Da kan jeg legge inn denne sammenlikningen, slik at folk kan se om det er noe forskjell:

 

http://www.3dmark.com/compare/fs/8674800/fs/8671143

 

Her ser vi fra 6-9% forskjell på grafikktestene. Hvis 1080 klarer litt 2100-2200mhz, da er det vel en ca 10% bedre med begge korta overklokka rimelig max.  :thumbup:

Endret av Nizzen
  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

Man regner ikke overklokk fra base clock på grunn av måten man overklokker nvidia-kort på; man øker makstaket for boost clock. Man bør da regne fra oppgitt boost clock fra nv sin side på referansekortene. Hvis man skulle regnet fra faktisk boostclock ville overklokken på mitt 980Ti vært særs lite imponerende, da det booster til 1420 fra eska, og klarer 1520 i spill. Betyr det at Maxwell klokker dårlig? Neppe. 

 

Jeg skjønner det er fristende å gjøre det når man snakker om et fabrikk overklokket skjermkort. Men det blir ikke noe mer riktig når vi vet at Maxwell referansekort som GTX970/980/980Ti bare en sjelden gang faktisk er nede i den oppgitte boost clock hastigheten i land med "normal" temperatur.

 

Det er ikke vanskelig å forstå at Nvidia er tvunget til å oppgi en slik lav boost clock heller. De hadde jo blitt saksøkt i filler i "The land of the free (to sue)" om kortene hadde levert en MHz under det oppgitte (og de ikke hadde hatt disclaimeren "typical" foran boost frekvensen). I Texas om sommeren med 45C i skyggen tenker jeg det er en del gutterom med ganske høye romtemperaturer som faktisk ikke ser stort over disse oppgitte boost hastighetene.

 

Til syvende og sist så er det bare et formål med overklokking, og det er å få lavere frametimes, som for enkelthets skyld ofte avleses som fps. Hvilke frekvenser som benyttes for å oppnå dette er bare interessant i et etterprøvbart perspektiv. Det som er interessant er hvor mange % høyere fps man får, ikke hvor mange % høyere frekvens enn en annen frekvens, som uansett aldri var i bruk på noen av kortene utenfor Texas og Afrika etc.

 

Har man for eksempel et MSI Gaming kort av noe slag så vil det mest riktige være å si at man får X% høyere fps i gjennomsnitt enn med et referanse kort. Men at man har overklokket litt over fabrikk overklokken og hentet ut X% til med ytelse over dette. Så kan man oppgi hvordan man fikk det til som i; hvor mange MHz man la til ens eget korts "base clock", hvor mye ekstra spenning man ga, hvor man satte power og temp target, viftehastighet, hvilke spill som er stabile på hvilke frekvenser, og hvilken frekvens som var absolutt stabil, hva slags temperaturer man fikk osv. osv.

 

Max frekvens man oppnådde kan selvfølgelig fremdeles være interessant når man skal sammenlikne modeller. Men det sier ikke lenger noe særlig om hvor mye man har overklokket i %..

Lenke til kommentar

Jeg har tatt en titt på det som er ute om 1070 nå, og må innrømme at som en prisbevisst gamer, frister 1070 veldig med pris/ytelse-metrikken sin. Spørsmålet er hvor lenge den kan gi 60fps på 1440p, det ser ut som om den klarer det på de fleste titler uten problemer per i dag, men det kommer jo flere spill (f.eks det nye fra CD Projekt Red som jeg vet jeg vil ha), og 1070 kan kanskje fort falle litt bakpå?

 

På 1080p virker det dog som om 1070 er "the card to have" fram til vi eventuelt ser hva 480X/490X kan diske opp med. 

Lenke til kommentar

 

Man regner ikke overklokk fra base clock på grunn av måten man overklokker nvidia-kort på; man øker makstaket for boost clock. Man bør da regne fra oppgitt boost clock fra nv sin side på referansekortene. Hvis man skulle regnet fra faktisk boostclock ville overklokken på mitt 980Ti vært særs lite imponerende, da det booster til 1420 fra eska, og klarer 1520 i spill. Betyr det at Maxwell klokker dårlig? Neppe. 

 

Jeg skjønner det er fristende å gjøre det når man snakker om et fabrikk overklokket skjermkort. Men det blir ikke noe mer riktig når vi vet at Maxwell referansekort som GTX970/980/980Ti bare en sjelden gang faktisk er nede i den oppgitte boost clock hastigheten i land med "normal" temperatur.

 

Det er ikke vanskelig å forstå at Nvidia er tvunget til å oppgi en slik lav boost clock heller. De hadde jo blitt saksøkt i filler i "The land of the free (to sue)" om kortene hadde levert en MHz under det oppgitte (og de ikke hadde hatt disclaimeren "typical" foran boost frekvensen). I Texas om sommeren med 45C i skyggen tenker jeg det er en del gutterom med ganske høye romtemperaturer som faktisk ikke ser stort over disse oppgitte boost hastighetene.

 

Til syvende og sist så er det bare et formål med overklokking, og det er å få lavere frametimes, som for enkelthets skyld ofte avleses som fps. Hvilke frekvenser som benyttes for å oppnå dette er bare interessant i et etterprøvbart perspektiv. Det som er interessant er hvor mange % høyere fps man får, ikke hvor mange % høyere frekvens enn en annen frekvens, som uansett aldri var i bruk på noen av kortene utenfor Texas og Afrika etc.

 

Har man for eksempel et MSI Gaming kort av noe slag så vil det mest riktige være å si at man får X% høyere fps i gjennomsnitt enn med et referanse kort. Men at man har overklokket litt over fabrikk overklokken og hentet ut X% til med ytelse over dette. Så kan man oppgi hvordan man fikk det til som i; hvor mange MHz man la til ens eget korts "base clock", hvor mye ekstra spenning man ga, hvor man satte power og temp target, viftehastighet, hvilke spill som er stabile på hvilke frekvenser, og hvilken frekvens som var absolutt stabil, hva slags temperaturer man fikk osv. osv.

 

Max frekvens man oppnådde kan selvfølgelig fremdeles være interessant når man skal sammenlikne modeller. Men det sier ikke lenger noe særlig om hvor mye man har overklokket i %..

 

Man trenger en fellesnevner, og den oppgitte boostclocken gir iallefall greie sammenligninger innad i en arkitektur. Enig i at økt ytelse er det som er formålet, og % overklokk driter jeg personlig i. Ytelsen når kortet er overklokket er det som teller :)

Lenke til kommentar

Ettersom 1080 ligger rundt 20fps foran så er det ikke mange månedene til det begynner å slite med 1440/60 også. Derfor tror jeg nok det beste er å gå for et 1070 nå, eventuelt et 1080ti senere. Med mindre du skal gå all inn med 4k selvsagt.

 

4k er enda et stykke unna for min del, kjøpte nylig 1440p-skjerm. :) 

 

Jeg tenkte jo uansett å vannkjøle, og 1070 så ut til å være ganske overklokkingsvennlig, hvertfall i videoen til Jayz. 

Lenke til kommentar

Må si meg mektig imponert over ytelsen til 2x 1080 i sli. 

 

Klarer å kjøre the witcher 3 i 6880x2880 med gjennomsnittlig 40 fps på ultra settings (AA, blur og DoF av).

 

Det er 19814400 piksler...

 

Ganske drøyt med detaljer: 

 

post-165777-0-96830100-1464985571_thumb.jpg

 

Deilig å endelig kunne silkemykt i 4k. Virkelig stor oppgradering fra 980 sli dette! :)

Endret av GunnarGul
  • Liker 1
Lenke til kommentar

Ja det skulle ikke forundre meg. 

 

According to the report from PCGamer, NVIDIA has no plans to release the high-end Mseries under GeForce brand. It basically means there won’t be any GeForce GTX 1070M and GTX 1080M graphics cards, but there will be GTX 1070 and GTX 1080 for notebooks. In other words NVIDIA will be following the same path they did with GeForce GTX 980 for notebooks, by offering desktop variants with the same clocks and configuration for high-end gaming laptops.

Leste at MSI kommer med en haug nye laptoper og det var ikke nevnt noe om M versjonen til Nvidia. Husker i farten ikke hvor jeg leste det, men arvtageren til MSI GT80S var blitt presentert på Computex 2016 og det ble ymtet om en pris på ca 4000 euro.

 

Skal se om jeg finner noe om dette.

Lenke til kommentar

Må si meg mektig imponert over ytelsen til 2x 1080 i sli. 

 

Klarer å kjøre the witcher 3 i 6880x2880 med gjennomsnittlig 40 fps på ultra settings (AA, blur og DoF av).

 

Det er 19814400 piksler...

 

Ganske drøyt med detaljer: 

 

attachicon.gif20160603220123_1.jpg

 

Deilig å endelig kunne silkemykt i 4k. Virkelig stor oppgradering fra 980 sli dette! :)

 

Ser veldig bra ut. Hvilke fps ligger du på i 4K i samme spill?

Lenke til kommentar

Er 40fps virkelig spillbart? Er det bedre i 4K enn 1080 eller 1440?

 

Tror jeg hadde spydd før det hadde gått 5min om jeg skulle hatt 40fps i 1080p.

 

Hvorvidt 40fps er "akseptabelt" kommer litt an på type spill. I Total War-Warhammer for eksempel ,er 40fps mer enn bra nok. I Doom derimot, helt forferdelig.

Lenke til kommentar

Jeg spiller jo ikke i 40 fps da, var bare for å teste ytelsen :p 

 

Husk nå at det fortsatt er høyere fps enn konsoller og oppløsningen er 8 ganger så høy, i tillegg til at grafikken er på ultra. 

 

Får bare testet med DSR for øyeblikket, orker ikke få det over på tven. I 4587x1920 (10% høyere enn 4k) ligger jeg på 60 fps (cap) med de samme instilligene. 

Lenke til kommentar

Jeg har tatt en titt på det som er ute om 1070 nå, og må innrømme at som en prisbevisst gamer, frister 1070 veldig med pris/ytelse-metrikken sin. Spørsmålet er hvor lenge den kan gi 60fps på 1440p, det ser ut som om den klarer det på de fleste titler uten problemer per i dag, men det kommer jo flere spill (f.eks det nye fra CD Projekt Red som jeg vet jeg vil ha), og 1070 kan kanskje fort falle litt bakpå?

 

På 1080p virker det dog som om 1070 er "the card to have" fram til vi eventuelt ser hva 480X/490X kan diske opp med.

60fps er altfor lite, det er grusomt å spille i 60fps på pc. Spørsmålet er heller hvor lenge det holder 144fps i spill. Endret av Enlightened
Lenke til kommentar

 

Til alle som lurer på lagerstatus på GTX 1080-serien i Amerika, se her: https://www.nowinstock.net/computers/videocards/nvidia/gtx1080/

 

Det kan gi en ca. anelse på når vi selv kan forvente å ha de i Norge.

Akkurat nå ser dere at ingen av "non-founders"-kortene er på lager noe som helst sted.

Proshop hadde FE 1080 i dag :)

 

 

Vet at flere butikker (inkl. CDON) har FE-kort på lager, men har enda ikke sett noen som har fått tilsendt et ikke-FE-kort.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...