Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Jasså, så du hugsar ikkje 1060 mot 980? Det verste er at 2060 kjem med 6GB minne noko som allereie har byrja å verte ein flaskehals i 1080p.

Jo, 1060 la seg på samme ytelsesnivå som 980, noen ganger over, noen ganger under, totalt sett rett på ytelsesnivået.

2060 er ca 5% tregere enn 1080, så litt tregere i denne omgang.

 

Men, jeg husker også 960, 760, 660, og 560

960 var litt raskere enn 760, og tregere enn 770

760 var litt raskere enn 660 Ti, og litt tregere enn 670

660 var marginalt raskere enn 570, et godt stykke unna 580

560 var litt raskere enn 460, og litt tregere enn 470

 

Så totalt sett vil jeg si 2060 legger seg akkurat der man burde forvente det skulle ligge.

Jeg er helt enig i at hele RTX-serien burde vært redusert ca 25% i pris, men slik det har vært de to siste årene klarer ikke AMD å konkurrere.

 

EDIT;

Angående 6GB i 1920x1080, så tror jeg ikke det vil være spesielt problematisk. Med unntak av Wolfenstein 2 på Mein Leben! i 3840x2160 har jeg ikke sett en eneste test som antyder at 6GB er et problem.

Endret av N o r e n g
  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

Jasså, så du hugsar ikkje 1060 mot 980? Det verste er at 2060 kjem med 6GB minne noko som allereie har byrja å verte ein flaskehals i 1080p.

2060 kommer med blant annet 6 GB vram. Samt en drøss andre varianter som kan gjøre det vanskelig for en forbruker å finne ut hvordan de yter.

 

Eller har jeg gått glipp av noe?

Lenke til kommentar

Jasså, så du hugsar ikkje 1060 mot 980? Det verste er at 2060 kjem med 6GB minne noko som allereie har byrja å verte ein flaskehals i 1080p.

F.eks BF V bruker bare 5.2GB vram i 4k... så 6GB på et midrange er ikkje umiddelbart noe krise. Mere vram enn nødvendig betyr også dyrere kort. I denne prisklassen betyr pris mye. :)

 

Selve gpu blir fortere flaskehals enn vram, for å si det slik ;)

  • Liker 2
Lenke til kommentar

6 GB er mer enn nok til 1080P så skjønner ikke hvor han har det fra.

Alltid noen som liker å spille med alt på max og med 200% res scaling, bare for å game i 30-40fps med et midrangekort. Man klarer å bruke mere vram om man vil. :p

 

 

call of duty black ops 4, bruker f.eks " all" tilgjengelig vram minus litt mindre enn max. 2080ti brukee ca 10GB mens 1060 bruker ca 5.5GB eller.no i samme oppløsni g. Ingen av dem har vram som flaskehals :)

 

Rtx serien bruker også heftig minnekompresjon, som hjelper godt på.

 

https://www.anandtech.com/show/13282/nvidia-turing-architecture-deep-dive/8

Endret av Nizzen
Lenke til kommentar

Vet ikke om dette er tilfelle med nye frostbite motoren, men husker at f.eks i BF4 så allokerte spillet opp mer VRAM enn det som var nødvendig avhengig av hvor mye VRAM kortet ditt hadde tilgjengelig.

Flere spill gjør dette ja, som f.eks cod.

Lenke til kommentar

Jo, 1060 la seg på samme ytelsesnivå som 980, noen ganger over, noen ganger under, totalt sett rett på ytelsesnivået.

2060 er ca 5% tregere enn 1080, så litt tregere i denne omgang.

 

Men, jeg husker også 960, 760, 660, og 560

960 var litt raskere enn 760, og tregere enn 770

760 var litt raskere enn 660 Ti, og litt tregere enn 670

660 var marginalt raskere enn 570, et godt stykke unna 580

560 var litt raskere enn 460, og litt tregere enn 470

 

Så totalt sett vil jeg si 2060 legger seg akkurat der man burde forvente det skulle ligge.

Jeg er helt enig i at hele RTX-serien burde vært redusert ca 25% i pris, men slik det har vært de to siste årene klarer ikke AMD å konkurrere.

 

EDIT;

Angående 6GB i 1920x1080, så tror jeg ikke det vil være spesielt problematisk. Med unntak av Wolfenstein 2 på Mein Leben! i 3840x2160 har jeg ikke sett en eneste test som antyder at 6GB er et problem.

Det litt spesielle nå er at 2070 ikke legger seg der man kan forvente fra forrige generasjoner. Det har tradisjonelt pleid å være stor forskjell på x60 og x70. Forskjellen mellom 2060 og 2070 er langt mindre enn mellom 1060 og 1070 selv om prisforskjellen er ganske lik. Synes 2060 gir klart mest for pengene av turingkorta, for pascal gav faktisk 1070 tilnærma like mye for pengene som 1060 (snittytelsa lå ca 35% over med 1070, i noen spill over 50% bedre). I testen på Gamersnexus ligger 2070 bare 5-15% foran jevnt over i 1080 og 1440. Jeg synes 2060 gir mye for pengene og ingenting i den prisklassen gir like mye bang for bucks men mindre prisen på f.eks Vega 56 droppes kraftig asap.

Lenke til kommentar

Det litt spesielle nå er at 2070 ikke legger seg der man kan forvente fra forrige generasjoner. Det har tradisjonelt pleid å være stor forskjell på x60 og x70. Forskjellen mellom 2060 og 2070 er langt mindre enn mellom 1060 og 1070 selv om prisforskjellen er ganske lik. Synes 2060 gir klart mest for pengene av turingkorta, for pascal gav faktisk 1070 tilnærma like mye for pengene som 1060 (snittytelsa lå ca 35% over med 1070, i noen spill over 50% bedre). I testen på Gamersnexus ligger 2070 bare 5-15% foran jevnt over i 1080 og 1440. Jeg synes 2060 gir mye for pengene og ingenting i den prisklassen gir like mye bang for bucks men mindre prisen på f.eks Vega 56 droppes kraftig asap.

 

Vega er allerede annonsert av "bransje kilder" å skulle få en redusert MSRP ganske umiddelbart. Får man den ned på 349 USD, så er det i grunnen helt greit. AMD kommer ikke til å selge stort flere kort uansett hvor langt ned de setter prisen. ;) De hadde måttet ned på noe totalt urealistisk for å ikke kunne oversees av de mest hardbarkede Nvidia fanboys. Og med de "mest hardbarkede Nvidia fanboys" mener jeg i dag; stort sett alle. :p

 

GN har kanskje den beste test metodikken av alle i techpressen. Vel, åpenbart med unntak av de som har samme metodikk med FCAT da. Sånt som Anandtech? og DigitalFoundry? Innbiller jeg meg i farta. Men det er en tungvindt og tidkrevende prosess, som gjør at GN skaper seg andre hull i testingen sin; de har for spill, og de endrer dem for sjeldent. Dette gjorde blant annet at de hardnakket hevdet at x8 PCIe 3.0 baner ikke var bottleneck for skjermkort i SLI før Titan V bl.a. Og det til tross for mange dokumenterte tilfeller av det motsatte helt siden 5960X og GTX980Ti.

 

Det jeg prøver å si er at man må vite hvilke kilder man kan bruke til hva, og at med GN's spill test suite, tviler jeg på at de egentlig er en god plass å lete etter akkurat disse svarene. Problemet er at, som vi nå vet; Turing's nye shadere ikke oppfører seg som Pascals. Så i titler der de nye shaderne ikke "skinner", så skiller man ikke Turing kortene "korrekt" fra hverandre. Men det er greia; med Nvidias legendariske nærme samarbeid med spill utviklere for å utnytte nye arkitekturer, så er det akkurat det vi kommer til å se fremover; titler der Turing's shadere "skinner"...

 

Som vanlig venter jeg på Hardware Unboxed/TechSpot sin review før jeg gjør meg opp en endelig mening om saken. Med et så stort spill utvalg som de tester med, så får man større deler av bildet. Og når man vet de tar med seg titler som Dirt 4, som er den eneste, eller ihvertfall en av svært få, titler der Vega 64 gir ytelse som et Vega 64 (:p). Så tror jeg i slike titler, at man også får et lite gløtt inn i fremtidig ytelse for Turing kortene. :)

Lenke til kommentar

Virker som om 144Hz er et av de absolutte kravene for "freesync-støtte". Interessant at man nå kan få en helt grei apative-sync-skjerm til nvidia for under 2k ;)

 

AMD har fremdeles et stort ess i ermet for de som ikke må ha 144Hz+. Finnes mange gode freesync-skjermer med lavere refresh for de med mer budsjettprega kort som RX 570, 560 etc :)

Hvorfor kreves 144?

Lenke til kommentar

2060 kommer med blant annet 6 GB vram. Samt en drøss andre varianter som kan gjøre det vanskelig for en forbruker å finne ut hvordan de yter.

 

Eller har jeg gått glipp av noe?

Har ikke sett noen indikasjoner på at 2060 kommer med annet enn 6GB VRAM, 30 SM, og 192-bit minnekontroller?

 

Rtx serien bruker også heftig minnekompresjon, som hjelper godt på.

Kompresjonen skjer bare i deltaene, poenget er å bare oppdatere de bitsene som har endret seg, ikke å spare plass i VRAM.

 

Vega er allerede annonsert av "bransje kilder" å skulle få en redusert MSRP ganske umiddelbart. Får man den ned på 349 USD, så er det i grunnen helt greit. AMD kommer ikke til å selge stort flere kort uansett hvor langt ned de setter prisen. ;) De hadde måttet ned på noe totalt urealistisk for å ikke kunne oversees av de mest hardbarkede Nvidia fanboys. Og med de "mest hardbarkede Nvidia fanboys" mener jeg i dag; stort sett alle. :p

299 USD for V56 og 399 for V64, så hadde de underkuttet Nvidia ganske heftig, og sannsynligvis solgt en del også. Da hadde de ikke trengt en bundle med spill heller.

Problemet til AMD nå er at Nvidia har VRR på alle skjermer, som de siste 18 månedene har vært "den fornuftige grunnen til å velge AMD"

Lenke til kommentar

ITavisen har sak om det her - RTX 2060 med 6, 4 og 3 GB. 

 

Fekk endeleg kome meg rundt til å få skifta kort i maskina i går. Frå 970 til MSI 2070 Gaming Z bør vere ei brukbar oppgradering. 

Si gjerne noe om hvordan forskjellen oppleves. Hadde en plan om oppgradering før jul selv, også fra et 970. Så ble rett og slett bare nedprioritert, men begynner å se etter tilbud igjen nå. 

Hvor mye mer eyecandy får du, hvilken cpu driver herligheten (jeg har i5 4690), støy/varme osv?

Lenke til kommentar

Gabri3L: Hvorfor legger ikkje du ut egne brukertester? Du har åpenbart masse tid til overs, og god kunnskap :)

 

En perfekt kombo!

 

He he, regner med du tuller. Men takk for tilliten om ikke. Og selv om jeg nok har litt tid jeg kunne avsett, så står det verre til med tålmodigheten. Samt; jeg ser ikke vitsen i å gjøre om igjen noe andre allerede har gjort bedre enn meg. Så lenge det finnes gode kilder til informasjonen jeg er på jakt etter, så ser jeg ikke vitsen i å kaste bort min egen tid. :p

 

 

299 USD for V56 og 399 for V64, så hadde de underkuttet Nvidia ganske heftig, og sannsynligvis solgt en del også. Da hadde de ikke trengt en bundle med spill heller.

Problemet til AMD nå er at Nvidia har VRR på alle skjermer, som de siste 18 månedene har vært "den fornuftige grunnen til å velge AMD"

 

Vel, jeg la merke til et par andre ting i Steam's Hardware Survey. Vega kortene er fremdeles i "Other" kategorien såvidt jeg kan se, og jeg vet ikke om de noensinne har vært ute av den. RX570 og RX 580 som har vært ekstremt bra rabattert, med 2 spill på toppen, og fremdeles hadde  Freesync fordelen i desember. Er såvidt over "other" kategorien for RX 570 sin del, og om det har vært det før, så er det ihvertfall nå, for første gang siden minst juli...

 

Og, til tross for at RX 580 altså har vært det objektivt beste kjøpet i forhold til GTX1060, ihvertfall i desember. Så økte bruker andelen med GTX1060 mer i desember alene, enn RX 580... Noensinne, siden det kom på markedet! :p

 

Poenget mitt er; "ingen" kjøper AMD skjermkort uansett. Punktum... AMD kan sukre så mye de vil, det er dessverre for sent. "Mindshare'en" har kommet for langt. Om de klarer å sette Intel på plass nå, og holde seg på topp en stund på CPU siden, så vil kanskje folks oppfattelse av AMD endre seg fra den evige "nest beste" i hva enn de driver med, til noe mer positivt. Men for øyeblikket er det for mange som "vet" at Nvidia er "best". Og de har bestemt seg for at de ikke trenger å holde seg oppdatert. :p

Lenke til kommentar

Poenget mitt er; "ingen" kjøper AMD skjermkort uansett. Punktum... AMD kan sukre så mye de vil, det er dessverre for sent. "Mindshare'en" har kommet for langt. Om de klarer å sette Intel på plass nå, og holde seg på topp en stund på CPU siden, så vil kanskje folks oppfattelse av AMD endre seg fra den evige "nest beste" i hva enn de driver med, til noe mer positivt. Men for øyeblikket er det for mange som "vet" at Nvidia er "best". Og de har bestemt seg for at de ikke trenger å holde seg oppdatert. :p

 

Nå er det vel ikke til å stikke under en stol at Nvidia faktisk er best med klar margin, dersom man ikke blander inn pris, og at for mange blir derfor kjøpsprosessen slik;

 

"Nividia er best, men jeg har ikke råd til det beste nvidia kortet - hva er da det beste nvidia-kortet jeg har råd til" - AMD har altså tapt ut fra startblokken fordi de ikke konkurrerer i high-end og må ta til takke med folk som faktisk gjør tekniske vurderinger og OEM-avtaler. - Og det er jo ikke akkurat entusiastene som er best rustet til å gjøre slike vurderinger som kjøper kort i budsjettklassen.

Endret av kjetilkl
  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...