Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Videoannonse
Annonse

Hvis dette stemmer og ikke er fake får man vel håpe de bedrer maskinlærings-algoritmene etterhvert. Hvis kvaliteten stemmer har nVidia oversolgt DLSS kraftig eller så er demobildet oppskalert fra en veldig lav oppløsning.

 

Det er zoomet inn på Infiltrator demoen som Nvidia brukte til å vise DLSS i 4K. Jeg regnet med denne var godt kjent allerede? Kilde video:

 

 

Tiden får vise om det vil bli bedre...

  • Liker 3
Lenke til kommentar

Det bildet er ekstrem-casen fra demoen. Generelt oppfatter jeg TAA som hakket skarpere overall så lenge man ikke pixelpeeper, men økt FPS kompenserer greit overall når sluttresultatet er så bra på 4K. Kjører man et smart og effektivt postfilter for oppskarpning på ferdigprodusert frame er nok det alt som skal til for å matche TAA bra nok for de fleste når en sitter nært monitoren.

  • Liker 1
Lenke til kommentar

Og 2080 ti fra 999$ . Lykke til med å finne til den prisen. Nvidia fucker til prisen på samme måte som med Pascal. Var vel først denne uken, 2 1/2 år etter, man finner 1070 til nvidia sin mspr..

Så sier vi takk for grininga om prisen for denne gangen. Hvis du ikkje liker prisen, så la være å kjøpe dritten. Slutt å syt i denne tråden iallefall.

  • Liker 4
Lenke til kommentar

Det bildet er ekstrem-casen fra demoen. Generelt oppfatter jeg TAA som hakket skarpere overall så lenge man ikke pixelpeeper, men økt FPS kompenserer greit overall når sluttresultatet er så bra på 4K. Kjører man et smart og effektivt postfilter for oppskarpning på ferdigprodusert frame er nok det alt som skal til for å matche TAA bra nok for de fleste når en sitter nært monitoren.

 

Jeg regner med akkurat det kommer til å bli diskutert til det kjedsommelige. Men det forandrer uansett ikke på at om bildekvaliteten ikke er identisk, så kan man heller ikke hevde at fps er høyere på samme kvalitet. Vi ser tydelig at DLSS fjernet detaljer i dette eksempelet. Om hver og en skal kunne sitte og si:"Pff, jeg ser ikke forskjell!". Så blir det det samme som om jeg skulle hevde at mitt skjermkort er dobbelt så raskt i 4K som et 2080Ti, jeg bare rendrer i 1080p og oppskalerer. "Kvaliteten er den samme, fordi jeg ser jo ikke forskjell!". :p

  • Liker 4
Lenke til kommentar

Eyecandy vs FPS har jo alltid vært der siden 3D ble populært. Dette er jo bare enda en iterasjon av det.

Tror nok at nVidia har vektet kvalitesmålet etter 4K-skjermer når de designet DLSS og derfor prioritert flyten via å ha høyere FPS som siktemål.

 

Vel, nå er jeg ingen ekspert på DLSS, men slik jeg har forstått hvordan det skulle ha fungert, så skulle ikke DLSS "brydd" seg om hvordan bildet blir. Det er bare AI som har sett på spill bilder i 4K med TAA, og så forsøker å kopiere. Eller rettere sagt; ut fra et 1080p bilde (f.eks.) gjenkjenne elementene i bildet, og så byttet dem ut med en 4K ekvivalent som den har "sett" rendret i 4K før. Kanskje den blir flinkere med mer tid, eller kanskje den skulle hatt flere Tensor cores for å gjøre jobben. Men som sagt; å diskutere bildekvaliteten blir lite givende. Man vil sikkert finne folk som vil foretrekke DLSS bildet til tross for at det ikke er "ground truth". Poenget mitt er kun dette: Om bildet ikke er identisk, så kan man heller ikke påstå at det rendres raskere med DLSS enn en annen metode. Man kan si: "Høyere fps med minimalt kvalitets tap.". Man kan ikke si: "Høyere fps med samme kvalitet."...

  • Liker 2
Lenke til kommentar

Var skeptisk til DLSS fra når jeg så presentasjonen til nVidia, så er ikke noe religiøs fanboy. Tanken med teknologien er god og resultatene slik de er presentert ser rimelig greie ut, og dette kommer fra en person med passion for oppskalering av film, så da er det nok rimelig godkjent for kjernemarkedet for kortene. En må uansett trekke fra litt nVidia-hype.

  • Liker 1
Lenke til kommentar

Godt å se at ikke alle løper rundt å tror DLSS "4k" faktisk er 4K. Kan hende det blir bedre, men det er jo et faktum at DLSS 4K ikke har det samme detaljnivået som 4K. Og det er der ytelseshoppet kommer inn i bildet. Spent på å se hvordan det funker i praksis likevel. Speselt sammen med Raytracing? Håper litt påp at de kan kombineres. De må jo nesten det.

  • Liker 1
Lenke til kommentar

Det virkelig spennende er DLSS 2x, det ser ut som noe å glede seg til når det kommer til bildekvalitet.  :dribble:

 

Ellers er jeg litt mer der at som jeg sa tidligere; så har Nvidia på en måte "våpenifisert" teknologien sin. Jeg er ikke helt sikker på om jeg forstår hvordan Nvidia har tenkt dette skal fungere. Men om vi tar utgangspunkt i deres egen slide:
 
NV-GeForce-RTX-2080-Performance.jpg

Og så for diskusjonens skyld later som at 2080 faktisk er ~50% raskere enn 1080 i gjennomsnitt, og at DLSS kan dytte fps'en videre slik at vi kommer til 100% raskere enn 1080. Da utgjør DLSS i så fall bare 25% av total ytelsen til 2080 når DLSS er i bruk. Nå, jeg forstår hvorfor enkelte i tråden her får en våt flekk i buksa av disse kortene. Men for de fleste av oss, så tenker jeg vi ville hatt mer glede av 33% flere CUDA cores. For med 33% flere CUDA cores så ville vi jo fått disse siste "ekstra" prosentene med ytelse over 1080 i alle spill, og da garantert uten bildekvalitets tap. Jeg har enda ikke gitt helt opp RT for høyere oppløsning enn 1080p, fordi jeg kan ikke forstå at det skal være mulig. Men om det er sant at selv 2080ti må ned i 1080p for å kjøre RT i spill som BF og SotTR. Ja, da er det en fadese, rett og slett, og Nvidia burde ha droppet hele greia en generasjon til, og heller gitt oss de forventede 70% høyere ytelse i "tradisjonelle" spill...

 

På en måte virker det litt som at Nvidia har funnet opp noe de ikke visste helt hva de skulle bruke til. Og så fikk noen en glup ide om at DLSS, som de egentlig utviklet til noe annet... Kanskje kunne brukes i spill? Nå, om det hadde vært mulig å gjøre noe liknende med de nye 8K TV'ene, så hadde nok jeg også blitt litt "rørt". For da snakker vi jo om usannsynlige mengder med data som ved tradisjonell rendring vil... Ja, vi måtte hatt 4x 2080Ti i SLI (som forøvrig ikke en gang støttes lenger). Om ett 2080Ti vha. DLSS kunne kjørt et spill i 1080p, eller 4K for den saks skyld, og så kunne DLSS oppskalert til noe som likner fælt på 8K TAA.  :dribble: Ikke sant? Da hadde jeg vært med! Og det heter seg faktisk i Samsungs promo materiale at de bruker AI for å oppskalere til 8K. Skjønt "AI" har jo også blitt et buzzword, så om det er ekte AI er jo en annen sak...

 

Men slik det er nå så havner DLSS altså litt mellom fornuftig og "diminishing returns". Hvorfor bruke DLSS på de siste 25% av et 1440p bilde for eksempel? Alle de foreløpig lanserte RTX20 serie kortene skal jo fikse den oppløsningen uansett... Man må nesten opp til 4K, og selv da finnes det andre metoder som får oss ganske nærme. Checkerboard rendering for eksempel. Annenhver frame i 4K, og neste annenhver frame oppskalert til 4k med informasjon fra en 1080p frame. Annenhvert bilde rendres da med 75% færre piksler. For en total besparelse i regnekraft på 125% delt på 2 frames. Altså man får i gjennomsnitt over 2 frames 2x 4k bilder der bare 62,5% av pikslene faktisk er rendret på tradisjonell måte. De siste 37,5% med pixler er så og si gratis å oppskalere når vi snakker datakraft. Så hvis vi ser bort fra det bare for å få litt enklere tall å regne med, så ser vi altså en økt "ytelse" på 60% med checkerboard rendering. Litt bedre enn DLSS med andre ord... Så får vi heller krangle om hva som gir best bilde. :p

 

Vi kan også ta for oss SLI som jeg nettopp nevnte i en post, der jeg sa det er litt ironisk at folk i det ene øyeblikket sier at SLI er søppel fordi det fungerer i så få spill, eller at det gir så lite ekstra ytelse at det ikke er noen vits, også tror de at DLSS vil komme til alle spill? Og gir masse ekstra ytelse? Igjen, om vi ser på hva vi faktisk kan vente oss av DLSS i 4K, altså ~33% høyere ytelse i spill med DLSS støtte. Ta så en titt på denne testen av SLI og se hvor mange av spillene som støtter SLI som får så lite ekstra ytelse? 80% av de 50 testede spillene støttet SLI. Av disse 40 spillene fikk man over 40% høyere ytelse i 34 av dem, og over 70% høyere ytelse i 21 av dem igjen. Over halvparten av disse titlene gir altså over dobbelt så mye ekstra ytelse som DLSS, uten kvalitets tap. Sitter man med et 1080Ti, så gir det altså mer mening med et 1080Ti til fra brukten for SLI, enn å gå ned til 2080Ti ytelse i tradisjonelle titler. Gamers Nexus testet SLI/NVLink, og fikk med 1080Ti SLI 59% høyere ytelse enn med ett 2080Ti i Sniper Elite 4 på Ultra i 4K. 23% høyere fps enn 2080Ti i FarCry 5 på "High", og 68% høyere fps enn 2080Ti i Shadow of the Tomb Raider på "High". I F1 2018 fikk de bare 10% høyere hastighet med SLI enn med ett 1080Ti, men hey, det er jo 10% nærmere 2080Ti ytelse i det minste. 2080Ti skalerte forøvrig veldig bra i F1 2018 med 70%, så det kan jo tenkes å bare være en driver oppdatering unna ordentlig skalering med 1080Ti også.

 

Nå, hadde DLSS vært "gratis", så hadde det vært en ting. Men når man eventuelt må slite med useriøse folk på finn.no for å kvitte seg med et 1080Ti for ~5000 Kr, og så ut med ~7000 til for et 2080Ti, som man med 1080Ti i SLI kjører i ring rundt i flere titler, og man kanskje må ned i 1080p for å i det hele tatt kunne kjøre hele poenget med de nye kortene?...  :hmm:

 

Så kommer de viktige spørsmålene; Hvor mange titler kan vi forvente at faktisk får DLSS støtte? Og er det uansett en god ting at Nvidia gjemmer den ytelsen i supercomputerne sine hjemme, i stedet for at de selger den ytelsen direkte til oss i form av kraftigere skjermkort som fungerer i alle titler?

 

Nå det første spørsmålet har jo et slags svar allerede: "Garantert ikke alle spill vil få støtte, og nesten garantert ingen gamle spill". For i motsetning til hva denne artikkelen forledet meg til å tro; at å implementere DLSS er en skikkelig enkel sak. Så kan vi jo se på hva utviklerne av spillet Dauntless sa om den saken etter spørsmålet: "Can you explain your implementation of NVIDIA DLSS in Dauntless? Was it easy to get it working?" Sv: "Easy may not be the right word, but easy isn’t the most important thing to us."...

 

Det er jo også et spørsmål hvor mange spillutviklere som er komfortable med å slippe Nvidia løs inni spillene sine. Og det er også et potensielt problem at DLSS ved enkelte patcher må traines på nytt. Noe som kan ta opp til flere uker. Da er det litt kjedelig om det var en game breaking bug som er patchet i non-DLSS patch, men som man må vente dagevis eller til og med ukevis for å få up and running igjen. Man risikerer at innen DLSS er på plass igjen, har man rundet spillet på lavere settings, og oppdaget at det gikk helt fint. :p

 

Så nei, uten identisk bildekvalitet kan man ikke si at DLSS gjør spillet raskere med samme kvalitet. Og selv om vi hadde sagt det for å være snille, så er det jo ikke akkurat mye ekstra "ytelse" vi har blitt vist til nå...

Endret av Gabri3L
  • Liker 4
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...