Randeboy Skrevet 25. november 2018 Del Skrevet 25. november 2018 Går som smurt her med min «utdaterte» maskin med 6700k 2666mhz ram(!!!!!), 1080 TI og oppløsning på 3440x1440. 70-100 FPS. Lenke til kommentar
Nizzen Skrevet 25. november 2018 Forfatter Del Skrevet 25. november 2018 Går som smurt her med min «utdaterte» maskin med 6700k 2666mhz ram(!!!!!), 1080 TI og oppløsning på 3440x1440. 70-100 FPS. Tja... Under 100 fps er ikkje smooth 6700k har iallefall HT, noe som hjelper på. Lenke til kommentar
Gabri3L Skrevet 25. november 2018 Del Skrevet 25. november 2018 Ikkje høyr på kva dei andre seier, DLSS aleine vil gjøre RTX 2070 til eit kupp for den prisen. Dette har du jo overhodet ikke dekning for å påstå. DLSS kan bli kjekt. Men det vi har sett til nå, er ikke imponerende overhodet: Et GTX1080Ti er ~30% raskere enn RTX2070, så 2070 vil trenge DLSS for å gi liknende ytelse/bildekvalitet som 1080Ti klarer med ren "brute force". Når vi så tar i betraktning at RTX2070, med all godvilje lagt til, kun vil kunne matche 1080Ti i de spillene som støtter DLSS. Så sier det seg selv at 1080Ti til samme pris, er et bedre kjøp. 5 Lenke til kommentar
oOF Skrevet 25. november 2018 Del Skrevet 25. november 2018 Prøvd litt forskjellig her og med min nåværende kjøler og med nåværende lydnivå stopper min CPU på 4,2Ghz uten å øke volten. Den har vært prøvd på 4,7 Ghz og booter opp på det, men er neppe stabil på litt lengre tid uten betydelig bedre kjøling. Mitt RTX 2070 har jeg på standard oppsett i Afterburner så langt. Jeg er ikke CPU-bundet uansett. Lenke til kommentar
BadCat Skrevet 25. november 2018 Del Skrevet 25. november 2018 Det er ikke volten som øker, det er spenningen. Lenke til kommentar
N o r e n g Skrevet 25. november 2018 Del Skrevet 25. november 2018 (endret) Det er ikke volten som øker, det er spenningen. Eventuelt det elektriske potensialet For å gi et eksempel på hvor merkelig det høres ut å "øke volten": Øker litern om du skal lage mer vaffelrøre? Endret 25. november 2018 av N o r e n g Lenke til kommentar
oOF Skrevet 25. november 2018 Del Skrevet 25. november 2018 Beklager, tar tilbake alt. Ignorer min uvitenhet. Lenke til kommentar
Reeve Skrevet 25. november 2018 Del Skrevet 25. november 2018 Deilig å være litt barnslig når det er snakk om dataspill Helt klart at det har noe med at spillet er svært cpukrevende. Leser jo på mange fora at folk sliter veldig med fps med 4 core. Spesielt 4core UTEN HyperTreading. Spillet bruker 12tråder veldig mye. Med sli, så brukes 12 tråder nær 90%+ Men trådbruk har vi vel etablert at er relativt ubrukelig i målestokk? Spesielt Windows sin oppgavebehandler viser jo ikke nødvendigvis bruk av ressurser, og vi har jo sett nærmere 100% bruk på ne 10-core chip, men som likevel blir slått av en 7700k... Lenke til kommentar
siDDis Skrevet 26. november 2018 Del Skrevet 26. november 2018 Dette har du jo overhodet ikke dekning for å påstå. DLSS kan bli kjekt. Men det vi har sett til nå, er ikke imponerende overhodet: Et GTX1080Ti er ~30% raskere enn RTX2070, så 2070 vil trenge DLSS for å gi liknende ytelse/bildekvalitet som 1080Ti klarer med ren "brute force". Når vi så tar i betraktning at RTX2070, med all godvilje lagt til, kun vil kunne matche 1080Ti i de spillene som støtter DLSS. Så sier det seg selv at 1080Ti til samme pris, er et bedre kjøp. Jo det har eg dekning til å påstå. Jeg kjenner veldig godt til forskningspapiret DLSS er basert på og drite oppi kva fjortiser agurkmenterer på sidan dei manglar totalt teknisk innsikt. At det kan samanlignast med 1800p istaden for 2160p er bare tull for det er ikkje så "enkelt" å forklare korleis det fungerer. Det som er så kult med DLSS er at det vil bare bli enda betre jo meir data og betre modeller vi får. Det er også andre ting som kan dukke opp som kan løfte frameraten og forbetre biletekvaliteten, med tensor cores så er det bare fantasien som setter begrensinger. Lenke til kommentar
Populært innlegg Gabri3L Skrevet 26. november 2018 Populært innlegg Del Skrevet 26. november 2018 Jo det har eg dekning til å påstå. Jeg kjenner veldig godt til forskningspapiret DLSS er basert på og drite oppi kva fjortiser agurkmenterer på sidan dei manglar totalt teknisk innsikt. At det kan samanlignast med 1800p istaden for 2160p er bare tull for det er ikkje så "enkelt" å forklare korleis det fungerer. Det som er så kult med DLSS er at det vil bare bli enda betre jo meir data og betre modeller vi får. Det er også andre ting som kan dukke opp som kan løfte frameraten og forbetre biletekvaliteten, med tensor cores så er det bare fantasien som setter begrensinger. Nå er det slik da, at en av Tim's oppgaver for HW Unboxed faktisk er å lage optimaliserings guider for spill. Da med fokus på å miste så lite eye candy som mulig. Han er altså en profesjonell reviewer av både monitorer og spill grafikk, og ser sikkert opp mot hundre spill i året, om ikke flere. Jeg stoler selvsagt 100 ganger mer på ham, og mine egne øyne etter å ha sett videoen, enn på hva slags konklusjon du har kommet til, etter å ha lest hva DLSS skulle ha vært. Kanskje en gang i fremtiden så blir DLSS bra. Men for øyeblikket har vi ikke sett noe til det, og du har dermed ikke dekning for din påstand om at DLSS er Jesus tilbakekomst. Du må gjerne hevde at du personlig har tro på at det kommer til å bli bra. Ikke at det er det... 11 Lenke til kommentar
JarleGutt Skrevet 26. november 2018 Del Skrevet 26. november 2018 Ved kjøp av Asus kort skal man og være i stand til å få gratis Call of Duty Black Ops 4 https://promotion.asus.com/en/nordics/call-of-duty-black-ops-4-dominate-with-the-best jarle Lenke til kommentar
Gjest Slettet+5132 Skrevet 26. november 2018 Del Skrevet 26. november 2018 (endret) Jo det har eg dekning til å påstå. Jeg kjenner veldig godt til forskningspapiret DLSS er basert på og drite oppi kva fjortiser agurkmenterer på sidan dei manglar totalt teknisk innsikt. At det kan samanlignast med 1800p istaden for 2160p er bare tull for det er ikkje så "enkelt" å forklare korleis det fungerer. Det som er så kult med DLSS er at det vil bare bli enda betre jo meir data og betre modeller vi får. Det er også andre ting som kan dukke opp som kan løfte frameraten og forbetre biletekvaliteten, med tensor cores så er det bare fantasien som setter begrensinger. Hvis du har lest litt forksningsartikler vet du også at de vanligvis kun viser de absolutt beste eksemplene. Dette er spesielt sant for maskinlæring, hvor det ikke finnes rigorøse bevis for at ting fungerer. Ellers er det ikke åpenbart at det blir bedre med mer data. Hvis jeg prøver å kjøre lineær regressjon på funksjonen x^5 over intervallet [0,10], blir det ikke noe bedre om jeg bruker tusen eller en millliard målepunkter. På samme måte vet ikke Nvidia hvordan det dype nevrale nettverket for DLSS "egentlig" ser ut, og derfor er det ikke åpenbart at det blir bedre med mer treningsdata. EDIT: I tillegg kan det være (egentlig er det veldig sannsynlig) at man må øke antall parametere i det nevrale nettet hvis man vil ha den ekstra nøyaktigheten fra flere datapunkter. Et fiksert nettverk kan ikke tilnærme en generell (glatt) funksjon til en villkårlig feil, for å få til det må du øke antall parametere samtidig som feilen blir mindre. Alt dette vil si at nettverket man deretter må evaluere på GPUen kan bli så stort at det ikke er mulig å kjøre på en 2070. Endret 26. november 2018 av Slettet+5132 Lenke til kommentar
siDDis Skrevet 26. november 2018 Del Skrevet 26. november 2018 Når det kommer til oppskalering så hjelper det med meir data, fordi det er såpass mye data som må kvernes for å komme nærmest mulig nullpunktet. Det handler egentleg om at mye data hjelper deg å få en mer balansert og nøytral modell. Og siden det er mye lettere å generere bilder fra spill så får en mye bedre modeller enn med tilsvarende fotografi/video. Du glemmer også å tenke over at denne store modellen også muligens består av x antall mindre modeller. Det å oppskalere med flere dimensjoner i det ene nevrale nettverket fungerer svært svært sjelden. mange små modeller har ofte vist seg å være 1000x kjappere enn en gigamodell. Lenke til kommentar
siDDis Skrevet 26. november 2018 Del Skrevet 26. november 2018 Nå er det slik da, at en av Tim's oppgaver for HW Unboxed faktisk er å lage optimaliserings guider for spill. Da med fokus på å miste så lite eye candy som mulig. Han er altså en profesjonell reviewer av både monitorer og spill grafikk, og ser sikkert opp mot hundre spill i året, om ikke flere. Jeg stoler selvsagt 100 ganger mer på ham, og mine egne øyne etter å ha sett videoen, enn på hva slags konklusjon du har kommet til, etter å ha lest hva DLSS skulle ha vært. Kanskje en gang i fremtiden så blir DLSS bra. Men for øyeblikket har vi ikke sett noe til det, og du har dermed ikke dekning for din påstand om at DLSS er Jesus tilbakekomst. Du må gjerne hevde at du personlig har tro på at det kommer til å bli bra. Ikke at det er det... Du velje på å høyre på ein tech-journalist som har som mål å selja ein god historie enten den er delvis riktig eller delvis feil. Å pakke historia fint inn er jo typisk teknikk som brukes til fake news. Det gjelder heller å vere kjeldekritisk, så får du heller sjå snart kor rett eller feil han hadde. Det einaste som er riktig å klage på at vi burde sett fleire spel med DLSS allereie. Det er god mogleg at forsinkelsane skyldes at det er utfordringar med å generere godt nok datasett og at treningstida tar nokre veker, som igjen betyr at Final Fantasy og Infiltrator var "quick & dirty". 4 Lenke til kommentar
MrMidget Skrevet 26. november 2018 Del Skrevet 26. november 2018 Da var det et PNY 2080 TI på vei til meg fra Elkjøp!Ser de fleste anbefaler å overklokke skjermkortet. Jeg har 0 peiling på overklokking så er det noen som har noen tips? MSI Afterburner har jeg hørt er bra, men kan det også gjøres via AI Suite som følger med XI Code? Lenke til kommentar
HansLo Skrevet 26. november 2018 Del Skrevet 26. november 2018 Du velje på å høyre på ein tech-journalist som har som mål å selja ein god historie enten den er delvis riktig eller delvis feil. Å pakke historia fint inn er jo typisk teknikk som brukes til fake news. Det gjelder heller å vere kjeldekritisk, så får du heller sjå snart kor rett eller feil han hadde. Det einaste som er riktig å klage på at vi burde sett fleire spel med DLSS allereie. Det er god mogleg at forsinkelsane skyldes at det er utfordringar med å generere godt nok datasett og at treningstida tar nokre veker, som igjen betyr at Final Fantasy og Infiltrator var "quick & dirty". Det eneste som gjelder her er å henvise til faktiske resultater i spill. Helt poengløst å gå ut i fra teoretiske fordeler her da det i tillegg til det også må taes i bruk/læres opp for hver enkelt tittel slik jeg forstår det. At det kommer til å bli gjort i det hele tatt er på dette tidspunktet ikke sikkert. Lenke til kommentar
JarleGutt Skrevet 26. november 2018 Del Skrevet 26. november 2018 Når det kommer til enkelte modeller mot hverandre så må man vente på at folk spretter opp kortene og tar en titt. Men 50% prisforskjell er ikke reelt. Feks standard MSI 2070 er 5000,- mens gaming z ligger på rett over 6000,- .. så en tusenlapp mer. Sistnevnte har egen PCB og det er flere faser etc, men må vente på at buildzoid eller GN ta en titt på disse kortene før man vet mer Billigste 2070 kort er til ca 5000, dyreste er ca 7700, det er 54% dyrere enn billigste. Lenke til kommentar
BadCat Skrevet 26. november 2018 Del Skrevet 26. november 2018 Ved kjøp av Asus kort skal man og være i stand til å få gratis Call of Duty Black Ops 4 https://promotion.asus.com/en/nordics/call-of-duty-black-ops-4-dominate-with-the-best jarle Du får det, men det er rene avhøret før du får koden. Du må til og med sende bilde av emballasjen. Lenke til kommentar
Gabri3L Skrevet 26. november 2018 Del Skrevet 26. november 2018 Flere som har lurt på hva slags CPU man "må" ha til RTX2080Ti, og Battlefield Multiplayer har jo ofte blitt trukket frem som en CPU gris. Jeg tipper flere her vil bli litt overrasket: Når det er sagt, så kjører nok Steve med 3200MHz RAM i alle konfigurasjoner, som nok er litt uaktuelt for mange av de dårligste CPU'ene. Men om noen her kjører 7700K med 2133MHz RAM, så vet dere nå hvorfor dere får dips i fps. 1 Lenke til kommentar
Mumriken Skrevet 26. november 2018 Del Skrevet 26. november 2018 Flere som har lurt på hva slags CPU man "må" ha til RTX2080Ti, og Battlefield Multiplayer har jo ofte blitt trukket frem som en CPU gris. Jeg tipper flere her vil bli litt overrasket: Mer overasket over hvor lav avg og min fps man får med stock cpu Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå