Gå til innhold

GeForce Gtx 10**/Titan og Pascal tråden


Anbefalte innlegg

 

 

 

 

 

 

Yes. Blir nok som jeg først tenkte. Venter på at MSI releaser slike kjølere, så kjøper jeg vannblokk ved siden av. Stygge som fy, men burde være nærmere 6500 kr marken. Som gir meg litt peng til vannblokk + bakplate. Er noen intr. i TitanX/980Ti vannblokk fullcover fra EK så send PM.

 

http://www.techpowerup.com/img/15-06-17/175a.jpg

 

Selvsagt hos DI da de er ufattelig snille med at garanti forsatt er tilstede selv om man fjerner klistemerker på skruer osv. :)

Lenge til hydro copper kommer? Sparer litt arbeid med det.
Sparer ikkje penger iallefall :p
Noen har for mye penger
Man kan aldri ha for mye penger.. :roll:
Selv med 45k feriepenger, 35k bonus, og 25k i lønn, så vil jeg bruke maks 3k på et skjermkort^^

Ot men hva jobber du som/ med?

 

Bensinstasjon.. Men ikke en vanlig en^^

Endret av Koven
  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

De fleste Strix, G1, Classified, Gaming-versjonene booster til minst 1400mhz. Da er 1080 bare 5-15% bedre. De fleste anmeldelser sammenligner sine egne referanseresultater, som stort sett blir feil. Alle 980Ti som selges nå er custom, og yter vesentlig mye bedre enn da 980Ti ble lansert.

 

Mulig det stemmer på de 980Ti korta som kom ut etter jeg kjøpte mine, men hos meg booster dem til 1278 og 1303 MHz da. Dårlig ASIC kan være årsaken til det. Får jo overklokka dem til over 1400 da.

 

Jeg har en følelse av at 1080Ti kommer til å bli et monster kort! 3500 deromkring cuda cores og 12-16GB HBM2 minne (eventuellt GDDR5X)  :cool:

Lenke til kommentar

 

 

Flere nyanser av farger bidrar jo til et dypere og mere levende bilde.

Nope, eller i det minste ikke alene. Man må ha et større fargerom og nok lysstyrke i tillegg.

Fargerom er jo flere nyanser så der er vi enig. Med HDR kommer 10 bit fargerom (som er flere nyanser av de samme grunnfargene du bruker i dag) og 1000 nits lysstyrke med OLED. Dette kommer nok til PC ettersom tiden går.

 

http://www.guru3d.com/articles-pages/radeon-technology-group-tech-update-december-2015,2.html

 

 

Du har kanskje forstått prinsippet. Men du blander på begrepene. Det er ikke noe som heter 10 bit farge-rom, det er 10 bits fargedybde. Men på norsk, såvel som engelsk (color-depth), så er dette et ord som inviterer til missforståelse. La meg prøve å illustrere:

 

La oss si du har en 2m lang strek som er så rød som øyet kan oppfatte i den ene enden og går gradvis mot så svart som mulig i andre enden. De fleste skjermer kan ikke gjengi hele spekteret av farger som vi er i stand til å se. Så la oss si vi har en skjerm som kan gjengi rød-nyansene fra rødt på 0,5m til svart på 1,5m. Der har du skjermens farge-rom i rød-skalaen. I dette farge-rommet legger vi så ned en "meterstokk" med gitte punkter som representerer utvalget av fargenyanser vi kan plukke ut fra dette fargerommet og vise på skjermen. Har du 8 bits fargedybde, vil meterstokken ha punktene fra 0 - 255 som kan velges. Men har du 10 bits fargedybde vil stokken gå fra 0 - 1023. I både 8 bit og 10 bit vil fargen på 0 være identisk, og fargen på 255 i 8 bit vil være 100% identisk med fargen på 1023 på 10 bit meterstokken. Det eneste farge-dybden gjør er altså å dele "meterstokken" opp i mindre biter. I 8 bit ville du kanskje ønsket å bruke en rød-nyanse mellom verdien 233 og 234, men måtte altså valgt en litt lysere eller mørkere nyanse enn den du egentlig ville ha. I 10 bit er det altså større sjanse for å kunne plukke ut nøyaktig den nyansen du ønsker. Og med flere nyanser tilgjengelig vil graderinger bli mindre synlige (om i det hele tatt).

 

Som vanlig kan det være vanskelig å illustrere slike ting med ord, så jeg kan bare håpe jeg forklarer mer enn jeg forvirrer. :)

  • Liker 4
Lenke til kommentar

Jeg har en følelse av at 1080Ti kommer til å bli et monster kort! 3500 deromkring cuda cores og 12-16GB HBM2 minne (eventuellt GDDR5X)  :cool:

 

 

Jeg tror NV styrer ytelsen mot de samme ~30% som de gjør hver gang det kommer et nytt toppkort. Det er ikke god business med store hopp når man kan dra det ut. Jeg tror det er _svært_ usannsynlig at du får noe "mer" ved neste anledning enn ved hver nylansering av toppkort hittil. 

  • Liker 1
Lenke til kommentar

Nvidia skryter av en stor ytelsesøkning i VR hos Pascal. Det er kanskje for tidlig å si noe enda, men vil det si at selv om DX-ytelsen til 1070 kanskje kan matches av 980Ti, så kan man sannsynligvis ende opp med at 1070 likevel er betydelig bedre i VR?

Lenke til kommentar

 

 

 

 

FE havner forresten på rundt 7500, avhengig av hvor mye hver enkelt butikk vil tjene :)

Såpass ja. Glad for at jeg ikke solgte ene 980Ti mitt til 3000-3500 kr som buda kom inn på!

Det bli spennende og se hvor GTX 1070 legger seg i lende i forhold til 980Ti kortet. Blir ytelsen noenlunde lik, så er det fremdeles håp for en verdi på rundt 4000 for kortet ditt. Noe mer hadde jeg ikke betalt, for et kort som tross alt bruker en god del mer strøm.

Tipper 1070 havner GODT under custom 980Ti-kort. De fleste Strix, G1, Classified, Gaming-versjonene booster til minst 1400mhz. Da er 1080 bare 5-15% bedre. De fleste anmeldelser sammenligner sine egne referanseresultater, som stort sett blir feil. Alle 980Ti som selges nå er custom, og yter vesentlig mye bedre enn da 980Ti ble lansert.

Ut fra det Nvidia selv skriver, så vil et GTX 1070 yte ca 70% bedre enn 970 kortet. Det vil faktisk plassere det godt foran stock 980Ti kort ser jeg nå. Hvis det stemmer så blir jeg veldig imponert. Klokking og custom frekvenser vil komme i tillegg på begge to selvfølgelig.
Vi får vente å se :)
Lenke til kommentar

 

Mulig det stemmer på de 980Ti korta som kom ut etter jeg kjøpte mine, men hos meg booster dem til 1278 og 1303 MHz da. Dårlig ASIC kan være årsaken til det. Får jo overklokka dem til over 1400 da.

 

Jeg har en følelse av at 1080Ti kommer til å bli et monster kort! 3500 deromkring cuda cores og 12-16GB HBM2 minne (eventuellt GDDR5X)  :cool:

 

 

Har vi egentlig noen bekreftelse på at det blir et Ti kort?

Jeg tror heller at vi kommer til å se proff kort som ikke kommer til å være så spesifikt bedre for forbrukermarkedet , trolig der hvor vi vil se HBM2 minnet bli brukt.

Det som virkelig vil være av interesse er neste Gen skjermkort som er ventet å komme i løpet av 2017 slik jeg forstod det, da vil Nvidia ha fått på plass bedre utnyttelse av krympingen og finpusset en del av teknologien , noe som trolig øker ytelsen igjen en god del.

 

Jeg vil tro at mid - low end kortene er det neste store for Nvidia og der det skal konkurreres om store penger , 660 - 760 - 860 og 960 er jo gode bestselgere så hvorfor slutte med det?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...