Gå til innhold

NVIDIA GeForce RTX 30xx tråden


Nizzen
Melding lagt til av Jarmo

Vennligst ikke ta AMD vs. Intel diskusjoner i denne tråden :)

Anbefalte innlegg

Spoiler

HnTM8R0.jpg

AMD må komme seg over faster preset før det er noe å vurdere. Selv  GTX 970 (NVENC v5 er foran faster preset, nåværende er NVENC v7).

mSNOLb6.jpgTall for lavere båndbredde.

H264 er sjanseløst på NAVI og verre enn eldre kort. Har de gjort noe som helst på "Big Navi" med maskinvare og drivere?

Last ned OBS og kjør screen eller game capture med X264 superfast preset, så ser dere omtrent hvordan AMD ligger an hvis det ikke er gjort noe drastisk på de kommende kortene.

image.thumb.png.cb845788df6bb1edb0921937cb28b8cf.png

Det er under recording dere må stille inn, ikke under streaming som i eksempelet jeg har laget. Keyframe Interval kan settes til 2, selv om auto burde gå bra. Sammenlign med x264 medium eller NVENC (New).

Prøv gjerne det samme med 6000 og 10000 kbps i 1080p.

Mye tyder på at AMD ikke vet hva de driver med på CPU og GPU da 12- og 16-kjerne langt på vei er overflødig hvis man har encode som duger på grafikkortet. Hvor mange spill krever 12+ kjerner og hvorfor gidde mange kjerner på CPU hvis HW-akselerasjon er bedre for produktivitet? Det gir en unødvendig kostnad å kjøpe over 8 kjerner hvis man kan bruke grafikkortet og få et likt eller bedre resultat.

Enkelte påstår at AMD er i ferd med å komme i teten, men realiteten er at AMD er ute og kjøre med desktop-produktene. 

Endret av BadCat
  • Liker 3
Lenke til kommentar
Videoannonse
Annonse

Deilig å få 3080 Aorus Xtreme i hus. Gikk fra 1770MHz i f.eks Port Royal på Inno3D RTX3080 iChill X3 (stock bios, reference design) til 2025MHz gjennom hele benchmarken. Vel og merke etter å ha oppdatert til siste BIOS som unlocka 450Watt og lar deg sette powerlimit til 121%. Tror det her er en keeper altså :) Gikk ikke over 70 grader heller. 

  • Liker 5
Lenke til kommentar

Jeg har oppdatert Octane render benchmarken min  med 3090. 
Grafen inneholder data fra da jeg oppgraderte fra GTX 680  til GTX Titan, og siden har jeg tatt vare på dette og syns det er en artig måte å se forbedringene når jeg oppgraderer.
GTX 680 fullførte kun to tester, resterende ble kansellert fordi de tok så lang tid at det ikke var vits i å måle en gang.

Forskjellene på 10 og 15 sekunder kan kanskje virke smått - men når man tenker at man skal rendere tusenvis av bilder, så blir det fort noe tid spart. 

En annen faktor er at man venter mye mindre nå enn før, med interaktiv render viewport. Slipper å måtte ta kaffepause hver gang du skal ta en test-render liksom.

image.thumb.png.8e5172b6ef961d4805076baf778186f3.png

Endret av OlaHaldor
  • Liker 3
  • Innsiktsfullt 1
Lenke til kommentar
OlaHaldor skrev (8 timer siden):

Jeg har oppdatert Octane render benchmarken min  med 3090. 
Grafen inneholder data fra da jeg oppgraderte fra GTX 680  til GTX Titan, og siden har jeg tatt vare på dette og syns det er en artig måte å se forbedringene når jeg oppgraderer.
GTX 680 fullførte kun to tester, resterende ble kansellert fordi de tok så lang tid at det ikke var vits i å måle en gang.

Forskjellene på 10 og 15 sekunder kan kanskje virke smått - men når man tenker at man skal rendere tusenvis av bilder, så blir det fort noe tid spart. 

En annen faktor er at man venter mye mindre nå enn før, med interaktiv render viewport. Slipper å måtte ta kaffepause hver gang du skal ta en test-render liksom.

image.thumb.png.8e5172b6ef961d4805076baf778186f3.png

Der kommer virkelig kost/nytte til sitt fulle!

Lenke til kommentar

Da jeg tok ut 2080 Ti i går ble jeg faktisk overrasket. Jeg syns den var stor når jeg byttet ut 1080.

Tilbake til render benchmarken. I en av testene renderer 2080 Ti på 1m 1s. 3090 på 37s.

Hvis man hadde fått sånne tall på en produksjonsrender (litt urealistisk, men dette skalerer ganske greit på store ting også) og man skal ha 1 minutt 25 fps som f.eks. Animasjon til en reklamefilm, så snakker vi 1500 bilder.

Forskjellen på 37 sekunder vs 1 min per frame er total Rendertid på 15,5 timer vs 25 timer. Det er vesentlig i forhold til hva man kan planlegge å gjøre på x antall arbeidsdager (mens man venter på renderen skal bli ferdig).

7CF6A048-2B70-4F32-93D1-7D9E587D8EDB.jpeg

  • Liker 3
  • Innsiktsfullt 4
Lenke til kommentar
3 minutes ago, OlaHaldor said:

Da jeg tok ut 2080 Ti i går ble jeg faktisk overrasket. Jeg syns den var stor når jeg byttet ut 1080.

Tilbake til render benchmarken. I en av testene renderer 2080 Ti på 1m 1s. 3090 på 37s.

Hvis man hadde fått sånne tall på en produksjonsrender (litt urealistisk, men dette skalerer ganske greit på store ting også) og man skal ha 1 minutt 25 fps som f.eks. Animasjon til en reklamefilm, så snakker vi 1500 bilder.

Forskjellen på 37 sekunder vs 1 min per frame er total Rendertid på 15,5 timer vs 25 timer. Det er vesentlig i forhold til hva man kan planlegge å gjøre på x antall arbeidsdager (mens man venter på renderen skal bli ferdig).

7CF6A048-2B70-4F32-93D1-7D9E587D8EDB.jpeg

Nice :)

  • Liker 1
Lenke til kommentar

Interessant å se på skaleringa til 3070 vs 2080ti vs oppløsning. Ser på TPU-testen i f.eks Sekiro at i 1080p er 2080ti 15-20% raskere, mens i 4k er 2080ti bare 4% foran. Ser et gjentagende mønster i flere andre spill og. Tipper drivere vil gjøre det bedre over tid, men det er tydelig at Ampere-arkitekturen er svært god på 4K+, men skalerer dårlig nedover i oppløsningene, sikkert dels pga drivere, men og ting i arkitekturen som butter imot.

  • Liker 1
Lenke til kommentar
20 minutes ago, BadCat said:

@Cowboystrekk

Det stemmer det du sier om 1080p. Hvis man øker power limit på 2080 Ti samt spenning og frekvens drar den ifra. Jo lettere last, desto høyere frekvens kan man kjøre

Dette gjør at i noen spill så kan 2200mhz kjøres lett på standard 3080, mens det sliter rundt 1900-1950mhz i Royal benchmarken 

Lenke til kommentar
17 hours ago, N o r e n g said:

Jeg er imidlertid skikkelig CPU-begrenset, selv i 1280x720 kommer jeg ikke over 105 fps average. Skal se om det hjelper å skru av SMT

148 avg fps med HT off. Tydelig at Ampere suger på lave oppløsninger med 90% gpu load 🤔

Watch Dogs Legion Screenshot 2020.10.30 - 11.08.25.53.png

152 avg fps med HT on. Frame times ser krise ut uncapped, men virker som det er optimaliseringen (merkes ikke ingame riktignok så muligens benchmarken)

Watch Dogs Legion Screenshot 2020.10.30 - 11.28.41.60.png

Endret av Mumriken
  • Liker 1
Lenke til kommentar
1 hour ago, Cowboystrekk said:

Interessant å se på skaleringa til 3070 vs 2080ti vs oppløsning. Ser på TPU-testen i f.eks Sekiro at i 1080p er 2080ti 15-20% raskere, mens i 4k er 2080ti bare 4% foran. Ser et gjentagende mønster i flere andre spill og. Tipper drivere vil gjøre det bedre over tid, men det er tydelig at Ampere-arkitekturen er svært god på 4K+, men skalerer dårlig nedover i oppløsningene, sikkert dels pga drivere, men og ting i arkitekturen som butter imot.

En annen betraktning her kan være at Ampere er godt kort for høye oppløsninger, der også DLSS kommer ennå mer til sin rett og at AMD 6000 serien er mer allrounder eller gode på 1080-1440. Men kan være fjas.

Lenke til kommentar

I og med at 3080 Tuf oc bare blir utsatt og utsatt så er jeg nå der at jeg tror jeg bare skal beholde 3080 Gamerock som jeg får over helga. Eneste grunnen til at jeg ikke har avbestilt Tuf oc er at jeg betalte 1500,- mer for gamerocken. Noen som kan overbevise meg 100%? 😛 Reviews er bra for begge kort, har ikke glass så utseende bryr jeg meg ikke om. Gamerock har 3x8 pins noe stor fordel der?

  • Liker 1
Lenke til kommentar
17 hours ago, BadCat said:

Jeg burde vel ha skrevet Radeon/ GeForce, men ja. Jeg håper at AMD plutselig annonserer at de har bedret encode. Isåfall skal jeg prøve et kort. Jeg holder ikke pusten inntil videre.

Chatten under presentasjonen av RDNA 2 var mest opptatt av "MILF, yes or no?"

Klarer du å lese slik hurtigforbipasserende chat-innlegg altså? Synes bare sånn rullechat er utrolig forstyrrende. Legger da youtube i vindu og lar underkanten gå utenfor skjermbildet jeg. Like greit :wee:

Tydelig at jaktinstinktene i meg lever i beste velgående når man kan bli "helt satt ut" av rulle-chat :laugh: (kan ikke fokusere på 2 ting på en gang jeg)

Endret av G
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...