Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Videoannonse
Annonse

Ikkje høyr på kva dei andre seier, DLSS aleine vil gjøre RTX 2070 til eit kupp for den prisen.

 

Dette har du jo overhodet ikke dekning for å påstå. DLSS kan bli kjekt. Men det vi har sett til nå, er ikke imponerende overhodet:

 

 

Et GTX1080Ti er ~30% raskere enn RTX2070, så 2070 vil trenge DLSS for å gi liknende ytelse/bildekvalitet som 1080Ti klarer med ren "brute force". Når vi så tar i betraktning at RTX2070, med all godvilje lagt til, kun vil kunne matche 1080Ti i de spillene som støtter DLSS. Så sier det seg selv at 1080Ti til samme pris, er et bedre kjøp.

  • Liker 5
Lenke til kommentar

Prøvd litt forskjellig her og med min nåværende kjøler og med nåværende lydnivå stopper min CPU på 4,2Ghz uten å øke volten. Den har vært prøvd på 4,7 Ghz og booter opp på det, men er neppe stabil på litt lengre tid uten betydelig bedre kjøling. Mitt RTX 2070 har jeg på standard oppsett i Afterburner så langt. Jeg er ikke CPU-bundet uansett.

Lenke til kommentar

Deilig å være litt barnslig når det er snakk om dataspill :D

 

Helt klart at det har noe med at spillet er svært cpukrevende. Leser jo på mange fora at folk sliter veldig med fps med 4 core. Spesielt 4core UTEN HyperTreading.

 

Spillet bruker 12tråder veldig mye. Med sli, så brukes 12 tråder nær 90%+

Men trådbruk har vi vel etablert at er relativt ubrukelig i målestokk? Spesielt Windows sin oppgavebehandler viser jo ikke nødvendigvis bruk av ressurser, og vi har jo sett nærmere 100% bruk på ne 10-core chip, men som likevel blir slått av en 7700k...

Lenke til kommentar

Dette har du jo overhodet ikke dekning for å påstå. DLSS kan bli kjekt. Men det vi har sett til nå, er ikke imponerende overhodet:

 

 

Et GTX1080Ti er ~30% raskere enn RTX2070, så 2070 vil trenge DLSS for å gi liknende ytelse/bildekvalitet som 1080Ti klarer med ren "brute force". Når vi så tar i betraktning at RTX2070, med all godvilje lagt til, kun vil kunne matche 1080Ti i de spillene som støtter DLSS. Så sier det seg selv at 1080Ti til samme pris, er et bedre kjøp.

 

Jo det har eg dekning til å påstå. Jeg kjenner veldig godt til forskningspapiret DLSS er basert på og drite oppi kva fjortiser agurkmenterer på sidan dei manglar totalt teknisk innsikt. At det kan samanlignast med 1800p istaden for 2160p er bare tull for det er ikkje så "enkelt" å forklare korleis det fungerer. Det som er så kult med DLSS er at det vil bare bli enda betre jo meir data og betre modeller vi får.  Det er også andre ting som kan dukke opp som kan løfte frameraten og forbetre biletekvaliteten, med tensor cores så er det bare fantasien som setter begrensinger.

Lenke til kommentar
Gjest Slettet+5132

Jo det har eg dekning til å påstå. Jeg kjenner veldig godt til forskningspapiret DLSS er basert på og drite oppi kva fjortiser agurkmenterer på sidan dei manglar totalt teknisk innsikt. At det kan samanlignast med 1800p istaden for 2160p er bare tull for det er ikkje så "enkelt" å forklare korleis det fungerer. Det som er så kult med DLSS er at det vil bare bli enda betre jo meir data og betre modeller vi får. Det er også andre ting som kan dukke opp som kan løfte frameraten og forbetre biletekvaliteten, med tensor cores så er det bare fantasien som setter begrensinger.

Hvis du har lest litt forksningsartikler vet du også at de vanligvis kun viser de absolutt beste eksemplene. Dette er spesielt sant for maskinlæring, hvor det ikke finnes rigorøse bevis for at ting fungerer.

 

Ellers er det ikke åpenbart at det blir bedre med mer data. Hvis jeg prøver å kjøre lineær regressjon på funksjonen x^5 over intervallet [0,10], blir det ikke noe bedre om jeg bruker tusen eller en millliard målepunkter. På samme måte vet ikke Nvidia hvordan det dype nevrale nettverket for DLSS "egentlig" ser ut, og derfor er det ikke åpenbart at det blir bedre med mer treningsdata.

 

EDIT: I tillegg kan det være (egentlig er det veldig sannsynlig) at man må øke antall parametere i det nevrale nettet hvis man vil ha den ekstra nøyaktigheten fra flere datapunkter. Et fiksert nettverk kan ikke tilnærme en generell (glatt) funksjon til en villkårlig feil, for å få til det må du øke antall parametere samtidig som feilen blir mindre. Alt dette vil si at nettverket man deretter må evaluere på GPUen kan bli så stort at det ikke er mulig å kjøre på en 2070.

Endret av Slettet+5132
Lenke til kommentar

Når det kommer til oppskalering så hjelper det med meir data, fordi det er såpass mye data som må kvernes for å komme nærmest mulig nullpunktet. Det handler egentleg om at mye data hjelper deg å få en mer balansert og nøytral modell.  Og siden det er mye lettere å generere bilder fra spill så får en mye bedre modeller enn med tilsvarende fotografi/video.

 

Du glemmer også å tenke over at denne store modellen også muligens består av x antall mindre modeller. Det å oppskalere med flere dimensjoner i det ene nevrale nettverket fungerer svært svært sjelden. mange små modeller har ofte vist seg å være 1000x kjappere enn en gigamodell.

Lenke til kommentar

Nå er det slik da, at en av Tim's oppgaver for HW Unboxed faktisk er å lage optimaliserings guider for spill. Da med fokus på å miste så lite eye candy som mulig. Han er altså en profesjonell reviewer av både monitorer og spill grafikk, og ser sikkert opp mot hundre spill i året, om ikke flere. Jeg stoler selvsagt 100 ganger mer på ham, og mine egne øyne etter å ha sett videoen, enn på hva slags konklusjon du har kommet til, etter å ha lest hva DLSS skulle ha vært.

 

Kanskje en gang i fremtiden så blir DLSS bra. Men for øyeblikket har vi ikke sett noe til det, og du har dermed ikke dekning for din påstand om at DLSS er Jesus tilbakekomst. Du må gjerne hevde at du personlig har tro på at det kommer til å bli bra. Ikke at det er det...

 

Du velje på å høyre på ein tech-journalist som har som mål å selja ein god historie enten den er delvis riktig eller delvis feil. Å pakke historia fint inn er jo typisk teknikk som brukes til fake news. Det gjelder heller å vere kjeldekritisk, så får du heller sjå snart kor rett eller feil han hadde.

Det einaste som er riktig å klage på at vi burde sett fleire spel med DLSS allereie. Det er god mogleg at forsinkelsane skyldes at det er utfordringar med å generere godt nok datasett og at treningstida tar nokre veker, som igjen betyr at Final Fantasy og Infiltrator var "quick & dirty".

  • Liker 4
Lenke til kommentar

Da var det et PNY 2080 TI på vei til meg fra Elkjøp!

Ser de fleste anbefaler å overklokke skjermkortet. Jeg har 0 peiling på overklokking så er det noen som har noen tips? MSI Afterburner har jeg hørt er bra, men kan det også gjøres via AI Suite som følger med XI Code?

Lenke til kommentar

Du velje på å høyre på ein tech-journalist som har som mål å selja ein god historie enten den er delvis riktig eller delvis feil. Å pakke historia fint inn er jo typisk teknikk som brukes til fake news. Det gjelder heller å vere kjeldekritisk, så får du heller sjå snart kor rett eller feil han hadde.

Det einaste som er riktig å klage på at vi burde sett fleire spel med DLSS allereie. Det er god mogleg at forsinkelsane skyldes at det er utfordringar med å generere godt nok datasett og at treningstida tar nokre veker, som igjen betyr at Final Fantasy og Infiltrator var "quick & dirty".

 

Det eneste som gjelder her er å henvise til faktiske resultater i spill. Helt poengløst å gå ut i fra teoretiske fordeler her da det i tillegg til det også må taes i bruk/læres opp for hver enkelt tittel slik jeg forstår det. At det kommer til å bli gjort i det hele tatt er på dette tidspunktet ikke sikkert.

Lenke til kommentar

Når det kommer til enkelte modeller mot hverandre så må man vente på at folk spretter opp kortene og tar en titt. Men 50% prisforskjell er ikke reelt. Feks standard MSI 2070 er 5000,- mens gaming z ligger på rett over 6000,- .. så en tusenlapp mer. Sistnevnte har egen PCB og det er flere faser etc, men må vente på at buildzoid eller GN ta en titt på disse kortene før man vet mer :)

 

Billigste 2070 kort er til ca 5000, dyreste er ca 7700, det er 54% dyrere enn billigste.

Lenke til kommentar

Flere som har lurt på hva slags CPU man "må" ha til RTX2080Ti, og Battlefield Multiplayer har jo ofte blitt trukket frem som en CPU gris. Jeg tipper flere her vil bli litt overrasket:

 

 

Når det er sagt, så kjører nok Steve med 3200MHz RAM i alle konfigurasjoner, som nok er litt uaktuelt for mange av de dårligste CPU'ene. Men om noen her kjører 7700K med 2133MHz RAM, så vet dere nå hvorfor dere får dips i fps. ;)

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...