Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Videoannonse
Annonse

Noe av grunnen til at vi får RTX er vel at det blir vanskeligere og vanskeligere å krympe transistorene. Å komme langt under 5nm blir en utfordring. Så hvorfor ikke komme med ny teknologi?

 

Grunnen til at Nvidia kom med "ny teknologi" nå var fordi de kommer først på markedet med det. Og DLSS er en form for "weaponizing" av teknologien. Har du, eller noen for den saks skyld, regnet på hvor mange CUDA cores de kunne fått plass til på samme die size som 2080Ti's for eksempel? Jeg vil tippe rundt 10 000 om de hadde droppet RT og Tensor cores. Tror du et slikt kort ville klart å dra skinnet av pølsa? ;)

Lenke til kommentar

Grunnen til at Nvidia kom med "ny teknologi" nå var fordi de kommer først på markedet med det. Og DLSS er en form for "weaponizing" av teknologien. Har du, eller noen for den saks skyld, regnet på hvor mange CUDA cores de kunne fått plass til på samme die size som 2080Ti's for eksempel? Jeg vil tippe rundt 10 000 om de hadde droppet RT og Tensor cores. Tror du et slikt kort ville klart å dra skinnet av pølsa? ;)

Har ikke det nei, lyst til å prøve?

Lenke til kommentar

2080ti strix oc/advanced lagt ut for salg @ komplett.no. De som bestiller tidelig av disse, får nok veldig kjapt. Fordi disse ble akkurat lagt ut for salg ;)

 

For de som måtte lure siden Komplett gir null info om forskjellen: OC er litt høyere klokket enn Advanced versjonen, og sånn sett kanskje verdt den hundringsen ekstra. Det er ikke sikkert det blir noen forskjell i ytelse overhodet etter en runde med "Scanner". Men hundre kroner er nå uansett billig "forsikring". :)

Lenke til kommentar

For de som måtte lure siden Komplett gir null info om forskjellen: OC er litt høyere klokket enn Advanced versjonen, og sånn sett kanskje verdt den hundringsen ekstra. Det er ikke sikkert det blir noen forskjell i ytelse overhodet etter en runde med "Scanner". Men hundre kroner er nå uansett billig "forsikring". :)

Hvorfor topper MSI Gaming X Trio kortet testene? Hva har de gjort som de andre ikke har gjort?

Endret av OddZen
Lenke til kommentar

Har ikke det nei, lyst til å prøve?

 

Nei, jeg har ikke peiling på hva som tar hvilken plass. jeg vet bare at die size er økt med ~60%, mens "krympingen" fra 16nm til 12nm kanskje burde gitt tilsvarende bedre plass. Men om vi antar at 60% av 1080Ti sin die er CUDA cores, så vil en økning av die size på 60% tilsvare en økning av plass til 100% flere CUDA cores om vi fremdeles var på 16nm. Altså ~7000 CUDA cores uten å ta med krympingen i regnestykket.

 

Men jeg har lest at 12nm ikke egentlig er 12nm. At det bare er 16nmm som klokker en del høyere enn forrige generasjon 16nm, og at de kaller det for 12nm for å differensiere dem. Så jeg vet ikke om "krympingen" ga noe ekstra plass overhodet. Transistor antallet har jo "bare" økt med ~57% som jo stemmer greit med 60% økt die size uten reell krymping.

 

Men nå har jeg allerede halt antakelsen om at 60% av die size er CUDA cores rett ut av en mørk plass, så jeg ser ikke noen vits i å trekke det lenger... :p

Lenke til kommentar

Sitter man med et 1080Ti i dag, og skal ha ~30% mer ut av 1080Ti, så man spille i minst UW1440p, kanskje til og med helt opp til 4K. Eller man må få seg en raskere CPU enn 8700K@5GHz...

Dette blir fullstendig feil.

Man oppgraderer ikke fordi spillene man spiller kjører godt nok, man oppgraderer fordi noen av spillene ikke kjører godt nok.

 

Videre er det fullstendig mulig å få et 2080 Ti til å knele i 1920x1080, alt man trenger å gjøre er å øke AA eller kjøre på med DSR.

For eksempel kan du laste ned Crysis 2 og sette det på maksimale innstillinger, og selv i 2560x1440 uten noen forbedrede AA-metoder vil mange av dagens GPU-er knele.

 

Dette begynner ærlig talt å bli tullete. Hvis de har problemer med å levere burde de gi en ny dato noen uker fremover i tid framfor å komme med nye unnskyldninger hver uke.

Lenke til kommentar

Dette blir fullstendig feil.

Man oppgraderer ikke fordi spillene man spiller kjører godt nok, man oppgraderer fordi noen av spillene ikke kjører godt nok.

 

Videre er det fullstendig mulig å få et 2080 Ti til å knele i 1920x1080, alt man trenger å gjøre er å øke AA eller kjøre på med DSR.

For eksempel kan du laste ned Crysis 2 og sette det på maksimale innstillinger, og selv i 2560x1440 uten noen forbedrede AA-metoder vil mange av dagens GPU-er knele.

 

 

De 30% du siterte meg på var jo tatt fra avsnittet over der jeg sier at det er gjennomsnitts ytelsen HWUB fikk med 2080Ti over 1080Ti når de testet 35 spill i 4K. Altså alle spillene er GPU bound, og det er nok spill til at man tryggere kan kalle det for et gjennomsnitt. Men jeg har da også prøvd å få frem at ytelsen fra spill til spill varierer såpass mye at å snakke om gjennomsnitts ytelse ikke en gang gir særlig stor mening.

 

Så sier jeg at om du skal få disse 30 prosentene over 1080Ti med et 2080Ti (ved for eksempel å teste disse 35 spillene selv), så må du selv med en 8700K@5GHz holde deg i en høy oppløsning. Jeg tror ikke det er nødvendig å helt opp til 4K, mens UW1440p er det neste "vanlige" hakket over 16:9 1440p som vi altså vet at noen av de samme 35 spillene blir begrenset selv av en 8700K@5GHz, som igjen gjør at gjennomsnitts ytelsen faller under de 30% jeg snakket om.

 

Forøvrig, om du kjører et spill i 4K med DSR, og sender det som 1080p til en 1080p skjerm. Så er ikke det det samme som å få "2080 Ti til å knele i 1920x1080". Det er å få 2080Ti til å knele i 4K...

 

Crysis har jeg ellers forstått det som at av utviklerne ble lagd med tanke på mye høyere enkelt tråd CPU ytelse i fremtiden. Og at det er CPU som knekker det i første omgang. Men også avsindige mengder med tesselering som ikke en gang er synlig. Ikke en gang jeg klandrer 2080Ti for å ikke takle spill som det. Det er verre med "Monster Hunter" og "Ghost Recon Wildlands"... ;)

  • Liker 1
Lenke til kommentar

Hvordan tror dere RTX 2070 vil bli mtp pris/ytelse? (Blir naturlig nok mye spekulasjoner). Tenker på å kjøpe et slikt selv. Har i dag et GTX960 så forventer at det vil bli noen forskjell da overgangen fra 9xx - serien til 10xx - serien også var et lite hopp, slik jeg har forstått det.

 

Per dags dato har jeg jo riktignok det som vil klassifiseres som gammel hardware på cpu fronten også, men blir jo "billigere" å måtte oppgradere "alt" med ett 2070 - kort kontra 2080(evt Ti). Det er i alle fall håpet!

Lenke til kommentar

De 30% du siterte meg på var jo tatt fra avsnittet over der jeg sier at det er gjennomsnitts ytelsen HWUB fikk med 2080Ti over 1080Ti når de testet 35 spill i 4K. Altså alle spillene er GPU bound, og det er nok spill til at man tryggere kan kalle det for et gjennomsnitt. Men jeg har da også prøvd å få frem at ytelsen fra spill til spill varierer såpass mye at å snakke om gjennomsnitts ytelse ikke en gang gir særlig stor mening.

HWUB er youtube-kanalen til Techspot, og her er artikkelen: https://www.techspot.com/article/1702-geforce-rtx-2080-mega-benchmark/

Så slipper andre å kaste bort 30+ minutter på å finne videoen og se på den framfor å lese artikkelen på 3 minutter.

 

Techpowerup testet forøvrig 23 spill og ifølge deres tall er 2080 Ti omtrent 40% raskere i 3840x2160 og 1/3 raskere i 2560x1440

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_Founders_Edition/33.html

Betyr det at de har testet urealistiske spill siden de viser høyere forskjell i snitt enn Techspot?

 

Så sier jeg at om du skal få disse 30 prosentene over 1080Ti med et 2080Ti (ved for eksempel å teste disse 35 spillene selv), så må du selv med en 8700K@5GHz holde deg i en høy oppløsning. Jeg tror ikke det er nødvendig å helt opp til 4K, mens UW1440p er det neste "vanlige" hakket over 16:9 1440p som vi altså vet at noen av de samme 35 spillene blir begrenset selv av en 8700K@5GHz, som igjen gjør at gjennomsnitts ytelsen faller under de 30% jeg snakket om.

 

Og hva så? Det vil alltid være en flaskehals, hvis flaskehalsen ligger i CPU/RAM og du får 250 fps med både 1080 Ti og 2080 Ti er det selvfølgelig bortkastet å oppgradere til 2080 Ti, men ingen oppgraderer fra et 1080 Ti fordi de har for dårlig ytelse i Overwatch eller CS:GO.

 

Grunnen til at man oppgraderer fra et 1080 Ti i dag vil i så fall være om man ønsker å se Raytracing og/eller DLSS, eventuelt om det kommer et annet spill der Turing knuser forrige generasjon (Wolfenstein 2 for eksempel).

 

Forøvrig, om du kjører et spill i 4K med DSR, og sender det som 1080p til en 1080p skjerm. Så er ikke det det samme som å få "2080 Ti til å knele i 1920x1080". Det er å få 2080Ti til å knele i 4K...

 

Crysis har jeg ellers forstått det som at av utviklerne ble lagd med tanke på mye høyere enkelt tråd CPU ytelse i fremtiden. Og at det er CPU som knekker det i første omgang. Men også avsindige mengder med tesselering som ikke en gang er synlig. Ikke en gang jeg klandrer 2080Ti for å ikke takle spill som det. Det er verre med "Monster Hunter" og "Ghost Recon Wildlands"... ;)

Crysis 1 ble laget i Pentium 4-tiden der man forventet at prosessorer skulle få stadig høyere klokkefrekvenser.

Crysis 2 ble laget i Core i7-tiden der man forventet at prosessorer skulle få stadig flere kjerner.

Problemet er absolutt tesselation i Crysis 2, spesifikt om du skyter i vannet og skaper vannbølger siden hver enkelt kule skaper en tesselert vannbølge.

  • Liker 1
Lenke til kommentar

2070 vil nok yte omtrent som 1080. Prisen tror jeg blir rundt 5000kr som er det samme som 1080 koster i dag.

 

 

Da håper jeg at DLSS og ray tracing gjør det verdt prisen! Er vel noe usikkerhet om hvordan ray tracing vil fungere på et kort som er såpass mye svakere enn 2080/2080Ti? Hvis jeg har forstått "skepsisen" rett.

Lenke til kommentar

Litt irriterende å se at mange ti er utsatt litt, men la oss håpe det ikke blir lenge for de som venter.

 

Når det gjelder flaskehalsen i CPU er nok dette mye grunnet x86 arkitekturen og litt måten Intel operer på ( og AMD er med på leken ) , når AMD fucket virkelig til med FX serien i 2011 ga de egentlig Intel fri for til å selge og utvikle slik det passet dem.

Intel satset en del feil ( men hadde råd til det ) og først nå ser vi at det igjen er fokus på oss forbrukere og reelle ytelseløft.

 

Personlig forventer jeg at 2019 sine cpu'er kommer til å gi mange av oss store smil og litt enklere å velge det vi behøver.

Lenke til kommentar

HWUB er youtube-kanalen til Techspot, og her er artikkelen: https://www.techspot.com/article/1702-geforce-rtx-2080-mega-benchmark/

Så slipper andre å kaste bort 30+ minutter på å finne videoen og se på den framfor å lese artikkelen på 3 minutter.

HWUB er ikke Techspots YT kanal. Det er en kanal som Matt, en kompis av Steven Walton startet med Stevens hjelp. Steven Walton er ikke lenger ansatt av TechSpot (om han noensinne var det), men leverer (ihvertfall i dag) artikler til dem på en freelance basis. Så ikke alt fra HWUB kommer i artikkelform på Techspot. Jeg visste at RTX20 serie testen ville komme i artikkel form på Techspot, og har derfor tidligere henvist til både Techspot og HWUB som kilde i denne sammenheng. Testen, når den kom, er forøvrig linket til tidligere i denne tråden, og jeg så derfor ikke behov for å grave linkene frem igjen.

 

Techpowerup testet forøvrig 23 spill og ifølge deres tall er 2080 Ti omtrent 40% raskere i 3840x2160 og 1/3 raskere i 2560x1440

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_Founders_Edition/33.html

Betyr det at de har testet urealistiske spill siden de viser høyere forskjell i snitt enn Techspot?

 

Det er flere grunner til forskjellen. Og jeg er strengt tatt forbauset over at det ikke har oppstått en krangel om hva som er "riktig" måte å regne ut på i denne tråden enda. Vi får vel starte den vi da. ;)

 

En ting er at TPU (så vidt jeg vet) har testet FE mot FE, mens HWUB ikke lot seg lure av Nvidia, nå som Nvidia snek inn et overklokket kort som FE. $999 MSRP kortene kommer ikke til å være overklokket. I stedet for å prøve å simulere ikke-overklokkede kort, så sammenliknet HWUB mot andre kort som også er fabrikk overklokket, ettersom det er det folk flest kjøper. 2080Ti FE er ~6% overklokket, og det alene kan da være en stor del av forskjellen.

 

Hvis vi så begynner med Wolfenstein 2, der TPU har et 2080Ti FE 67% raskere enn 1080Ti FE, og deler det på de 23 spillene. Så utgjør det alene 2,91% av ledelsen til 2080Ti. Mens hos HWUB så var forskjellen "bare" 55% (som utenom fabrikk overklokking kan komme av hvor de testet, og forskjeller i test oppsett). Deler vi så de 55% på HWUB's 35 spill, så utgjør scoren bare 1,57% fordelt på alle spill. Mengden spill testet betyr altså en god del for et så nøyaktig resultat som mulig. Og Vulkan titler er det ikke akkurat mange av, så det blir ikke riktig om den ene testet skal ha en uforholdsmessig stor innflytelse på slutt resultatet.

 

HWUB viste også at om de hadde valgt bare de 17 titlene som satte 2080Ti i best lys, ville de også fått 40%. Mens tilsvarende, om de hadde valgt de 17 "dårligste" titlene ville 2080Ti kommet ut seende kun 20% raskere ut. Så spillutvalget kan åpenbart ha noe å si.

 

Ellers kommer det også til forskjeller i test oppsett. Jeg vet ikke om TPU tester på benk, men HWUB gjør det ihvertfall i kabinett, som jeg tipper er litt uvanlig i seg selv. HWUB har også som sagt en 8700K på 5GHz, mens TPU sin går bare opp til 4,8GHz. De har til gjengjeld puttet i litt raskere RAM, som jeg tror de har tweaket timingene på. Mens HWUB kun bruker XMP profilen.

 

Metoden er nok også forskjellig, og er enda en av grunnene til at jeg ser på HWUB som selve fasiten; Steve spiller faktisk hvert eneste spill når han tester, i motsetning til de som bare tester spill med innebygde benchmark tools.

 

Og hva så? Det vil alltid være en flaskehals, hvis flaskehalsen ligger i CPU/RAM og du får 250 fps med både 1080 Ti og 2080 Ti er det selvfølgelig bortkastet å oppgradere til 2080 Ti, men ingen oppgraderer fra et 1080 Ti fordi de har for dårlig ytelse i Overwatch eller CS:GO.

Det kan jeg ikke se at jeg har påstått heller. Jeg har derimot påpekt at å sammenlikne gjennomsnitts ytelse når arkitekturene er såpass forskjellige. Rett og slett kanskje ikke gir så mye mening. Arma 3 er jo et kjipt eksempel på et spill som er forferdelig dårlig optimalisert. Tenk om det er det eneste spillet du spiller, og du irriterer deg over ytelsen selv med et 1080Ti. Og så kommer noen og sier; "Kjøp 2080Ti da vel, det er 40% raskere!". Tror du du hadde blitt litt sur når du så fyrte opp første gang med 2080Ti og oppdaget at i akkurat det ene spillet du spiller, så er 2080Ti kun 4% raskere enn ditt gamle 1080Ti på din 1440p monitor?

 

Grunnen til at man oppgraderer fra et 1080 Ti i dag vil i så fall være om man ønsker å se Raytracing og/eller DLSS, eventuelt om det kommer et annet spill der Turing knuser forrige generasjon (Wolfenstein 2 for eksempel).

 

Jeg er med på Raytracing, til en viss grad, men Wolfenstein er jo ikke akkurat uspillbart på 1080Ti som det er. Og ikke er det akkurat mange Vulkan titler på markedet heller.  ;)

 

Og når det gjelder DLSS... Wait for benchmarks sier jeg. ;) Eller rettere sagt; image comparisons. Det vi har sett til nå er at de ikke klarer matche TAA på karusell demoer en gang. Å snakke om DLSS som "redningen" for ytelsen til RTX kortene blir rimelig prematurt. For ikke å si ironisk.. Folk bare: "SLI er søppel, det funker bare i noen spill!"... Mens DLSS fungerer jo i hvor mange spill? ikke ett eneste enda, og med bildekvalitets forskjell som dette, så kan man jo uansett ikke si at det blir som 4K TAA bare med høyere fps. Hvordan, og med hva man skal sammenlikne det grapset der med, det skal bli interessant å se hvordan de løser review'erne. :p

 

screenshot2018-09-20a4uesa.png

  • Liker 4
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...