Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

NVIDIA GeForce RTX 30xx tråden


Nizzen
Melding lagt til av Jarmo

Vennligst ikke ta AMD vs. Intel diskusjoner i denne tråden :)

Anbefalte innlegg

Nizzen skrev (10 timer siden):

Da får du ca 160fps tenker jeg. Burde jo holde om du har 3440x1440 144hz :p

Betyr dette at min Ryzen 7 3700X og 16gb 3733mhz cl16 vil være flaskehals for 3080? 

Til 1440 @165hz

Endret av JFM
Lenke til kommentar
Videoannonse
Annonse

Stusser litt på at folk mener 3090 er for dyrt for 10-20% ytelse over 3080. I "gamle dager" var det normalt med 20% ytelses økning mellom generasjoner og man handlet nye kort uten å klage.

Tror "problemet" her er at folk ble for bortskjemte med at 3080 ga så mye så billig. Jeg kjøpte 3090 rett og slett fordi jeg ikke orker den evige "skal jeg vente på at det kanskje kommer en TI eller Super utgave". Nå vet jeg at jeg har den beste i de neste årene, og kjøpte heller en litt billigere mobiltelefon (P30 pro til 5000,- istedenfor S20 Ultra til 16000,-)

MEN, nå som jeg har lekt meg litt med 3090 kortet så stusser jeg over en ting dere som har stålkontroll her sikkert kan svare meg på:

i f.eks. GTA V (eller Farcry 5, Snowrunner, osv) så ligger GPU usage ofte rundt 60-80% og CPU usage rundt 30-40%. (FPS gjerne rundt 100-120 med alt på Ultra). For all del, det er helt greit å spille på, men hvorfor er ikke GPU maxet (ev. CPU hvis det var flaskehalsen). Er det minnebåndbredden som holder igjen? (er det noen måte å måle minnebåndbredde bruken?) Jeg har ikke VSYNC på så den skulle jo bare slengt ut så mange FPS den klarte å produsere.

Er det fordi spillet ikke bruker alle Tensor/CUDA kjernene og at det dermed rapporteres "feil"? Det som er rart er at en gang iblant, i gitte settinger, så er GPU oppe i 100% så rart om det skulle være det også. 

Specs forøvrig er i9-9900kf @ 5ghz, 32gb G.Skill Ripjaws V DDR4 3600Mhz CL16 (16-16-16-36) @ XMP2 på ett ASUS PRIME Z390-A på en Asus TUF 32" 2560x1440 144hz skjerm. 

Edit: PSU er ett 1050W Gold. 

Endret av Dingy
  • Innsiktsfullt 1
Lenke til kommentar

Jeg fikk faktisk en BSOD i går knyttet til nvlddmkm.sys. Jeg trykket på play i en video i nettleseren.

Håper det var et engangstilfelle.

DRIVER_IRQL_NOT_LESS_OR_EQUAL
The computer has rebooted from a bugcheck.  The bugcheck was: 0x000000d1 (0xfffff8053ada2edc, 0x0000000000000002, 0x0000000000000008, 0xfffff8053ada2edc).

  • Innsiktsfullt 1
Lenke til kommentar
Dingy skrev (Akkurat nå):

Stusser litt på at folk mener 3090 er for dyrt for 10-20% ytelse over 3080. I "gamle dager" var det normalt med 20% ytelses økning mellom generasjoner og man handlet nye kort uten å klage.

Tror "problemet" her er at folk ble for bortskjemte med at 3080 ga så mye så billig. Jeg kjøpte 3090 rett og slett fordi jeg ikke orker den evige "skal jeg vente på at det kanskje kommer en TI eller Super utgave". Nå vet jeg at jeg har den beste i de neste årene, og kjøpte heller en litt billigere mobiltelefon (P30 pro til 5000,- istedenfor S20 Ultra til 16000,-)

MEN, nå som jeg har lekt meg litt med 3090 kortet så stusser jeg over en ting dere som har stålkontroll her sikkert kan svare meg på:

i f.eks. GTA V (eller Farcry 5, Snowrunner, osv) så ligger GPU usage ofte rundt 60-80% og CPU usage rundt 30-40%. (FPS gjerne rundt 100-120 med alt på Ultra). For all del, det er helt greit å spille på, men hvorfor er ikke GPU maxet (ev. CPU hvis det var flaskehalsen). Er det minnebåndbredden som holder igjen? (er det noen måte å måle minnebåndbredde bruken?) Jeg har ikke VSYNC på så den skulle jo bare slengt ut så mange FPS den klarte å produsere.

Specs forøvrig er i9-9900kf @ 5ghz, 32gb G.Skill Ripjaws V DDR4 3600Mhz CL16 (16-16-16-36) på ett ASUS PRIME Z390-A på en Asus TUF 32" 2560x1440 144hz skjerm. 

La meg illustrere hvorfor jeg ikke vurderer 3090:

turingvsampere.png.2d53b8473bd02ca96a6b4586a4f4ac78.png

Her ser du gevinsten man sitter igjen med ved å ta steget opp fra XX80, og 3090 stiller vesentlig dårligere enn 2080 Ti. Jeg har ikke plottet inn 1080 Ti her, men det hadde ikke sett bedre ut med det kortet heller. Som du selv sier er 3080 "for billig" i forhold.

 

Angående problemet ditt, så er du begrenset av entrådet ytelse, derfor ser du ikke mer enn 60-80% GPU Utilization i de spillene. Selv om din 9900K har 16 tråder som kan jobbe er spillet fortsatt begrenset av at en enkelt tråd tar "lang" tid, og resten av CPU og GPU blir ventende på at den blir ferdig.
Og for de som liker å bruke ordet "bottleneck" eller flaskehals, så er dette et tilfelle der det er riktig å bruke ordet. Ikke en problematisk flaskehals ettersom ytelsen fortsatt er veldg god, men fortsatt en flaskehals.

  • Liker 3
  • Innsiktsfullt 1
Lenke til kommentar
N o r e n g skrev (14 minutter siden):

La meg illustrere hvorfor jeg ikke vurderer 3090:

"image"

Her ser du gevinsten man sitter igjen med ved å ta steget opp fra XX80, og 3090 stiller vesentlig dårligere enn 2080 Ti. Jeg har ikke plottet inn 1080 Ti her, men det hadde ikke sett bedre ut med det kortet heller. Som du selv sier er 3080 "for billig" i forhold.

 

Angående problemet ditt, så er du begrenset av entrådet ytelse, derfor ser du ikke mer enn 60-80% GPU Utilization i de spillene. Selv om din 9900K har 16 tråder som kan jobbe er spillet fortsatt begrenset av at en enkelt tråd tar "lang" tid, og resten av CPU og GPU blir ventende på at den blir ferdig.
Og for de som liker å bruke ordet "bottleneck" eller flaskehals, så er dette et tilfelle der det er riktig å bruke ordet. Ikke en problematisk flaskehals ettersom ytelsen fortsatt er veldg god, men fortsatt en flaskehals.

Jeg er helt enig i FPS pr. krone dilemmaet, og burde vel selv også valgt 3080. Men så er 3080 "super" med 20gb ram rett rundt hjørnet da... også sitter man der og venter 😉

Ok, så jeg må aktivere alle kjernene mine i on-screen-display og se om det er noen av de som er makset, og dermed finne flaskehalsen. Ville det hjulpet å skru av hyper-threading som i gamle dager, eller har det blitt så bra at det ikke legges to tunge operasjoner på den samme fysiske kjernen lenger?

 

image.png.876a117a27b893a923ee9453cf801bef.png

Tok akkurat en liten test-run... og, foruten CPU3 som er på 75% så er da resten ute på piknik og koser seg, men GPU usage er på 57% og kun 101 FPS... 

Det skal sies at i andre settinger/situasjoner så er GPU oppe i 97 ish % ...

Endret av Dingy
Lenke til kommentar
24 minutes ago, Dingy said:

Stusser litt på at folk mener 3090 er for dyrt for 10-20% ytelse over 3080. I "gamle dager" var det normalt med 20% ytelses økning mellom generasjoner og man handlet nye kort uten å klage.

Tror "problemet" her er at folk ble for bortskjemte med at 3080 ga så mye så billig. Jeg kjøpte 3090 rett og slett fordi jeg ikke orker den evige "skal jeg vente på at det kanskje kommer en TI eller Super utgave". Nå vet jeg at jeg har den beste i de neste årene, og kjøpte heller en litt billigere mobiltelefon (P30 pro til 5000,- istedenfor S20 Ultra til 16000,-)

MEN, nå som jeg har lekt meg litt med 3090 kortet så stusser jeg over en ting dere som har stålkontroll her sikkert kan svare meg på:

i f.eks. GTA V (eller Farcry 5, Snowrunner, osv) så ligger GPU usage ofte rundt 60-80% og CPU usage rundt 30-40%. (FPS gjerne rundt 100-120 med alt på Ultra). For all del, det er helt greit å spille på, men hvorfor er ikke GPU maxet (ev. CPU hvis det var flaskehalsen). Er det minnebåndbredden som holder igjen? (er det noen måte å måle minnebåndbredde bruken?) Jeg har ikke VSYNC på så den skulle jo bare slengt ut så mange FPS den klarte å produsere.

Er det fordi spillet ikke bruker alle Tensor/CUDA kjernene og at det dermed rapporteres "feil"? Det som er rart er at en gang iblant, i gitte settinger, så er GPU oppe i 100% så rart om det skulle være det også. 

Specs forøvrig er i9-9900kf @ 5ghz, 32gb G.Skill Ripjaws V DDR4 3600Mhz CL16 (16-16-16-36) @ XMP2 på ett ASUS PRIME Z390-A på en Asus TUF 32" 2560x1440 144hz skjerm. 

Edit: PSU er ett 1050W Gold. 

Farcry 5. Kjør samme benchmark og post bildet her. Da kan vi fortelle deg hva flaskehalsen er ;)

3440x1440

20200928_164021.thumb.jpg.24e73253b32152475481fa7fbdc4af0d.jpg

1080p

20200926_140027.thumb.jpg.d1ae29e3c3ae5e4c89b26e9859fcebd9.jpg

Endret av Nizzen
Lenke til kommentar
3 minutes ago, Dingy said:

1080p

image.thumb.png.200b9141966cee9fc6386820ac2c2aa2.png

 

2560 x 1440

image.thumb.png.b9b59d9e037f2e9fd275cae1893cc0c4.png

Som du ser, så er du cpubound/minnebound i 1440p også. Det ser du godt på min fps.

 

Jeg kjører 10900k@ 5.5ghz og 4700c17 1t max tweaket minne. Da ser du hvor mye det hjelper med veldig raskt minne med high end gpu ;)

  • Liker 1
Lenke til kommentar
Just now, KriZZ said:

Hvilke minnebrikker er dette?

Lukter en fremtidig oppgradering her!

Team extreem 4500c18, men andre gode b-die brikker kan klare det samme med godt hovedkort. F.eks G.skill 4000c15, gode viper 4400c19 osv...

Du kan også ha flaks med ny revisjon av 3600c15 og 3200c14.

Lenke til kommentar
Nizzen skrev (4 minutter siden):

Team extreem 4500c18, men andre gode b-die brikker kan klare det samme med godt hovedkort. F.eks G.skill 4000c15, gode viper 4400c19 osv...

Du kan også ha flaks med ny revisjon av 3600c15 og 3200c14.

Ja jeg har snust litt på disse: https://www.multicom.no/gskill-tridentz-rgb-series-ddr4/cat-p/c/p1001203488
Føler nesten at det blir et must sammen med 3090 nå.

Kjører i dag på Usle 3600c19 og vil tro det blir en helt strait oppgradering om jeg går for nye brikker.

Lenke til kommentar
Nizzen skrev (37 minutter siden):

Som du ser, så er du cpubound/minnebound i 1440p også. Det ser du godt på min fps.

 

Jeg kjører 10900k@ 5.5ghz og 4700c17 1t max tweaket minne. Da ser du hvor mye det hjelper med veldig raskt minne med high end gpu ;)

Jøss, imponerende hvordan du klarer å lese det ut av de kurvene 🙂 er det fordi det er forskjellige ting som belastes på de forskjellige punktene i benchmark'en?

Jeg fulgte med på CPU usage ila. benchmark'en og så aldri noe over 80% på noen kjerner, er det minnet som begrenser mest da kanskje? Skal prøve å overklokke brikkene mine og se :)

Lenke til kommentar
35 minutes ago, KriZZ said:

Ja jeg har snust litt på disse: https://www.multicom.no/gskill-tridentz-rgb-series-ddr4/cat-p/c/p1001203488
Føler nesten at det blir et must sammen med 3090 nå.

Kjører i dag på Usle 3600c19 og vil tro det blir en helt strait oppgradering om jeg går for nye brikker.

Har akkurat det kittet sammen med Asus formula z490 og 10900k. Gameren til lillegutt :p Han spiller mest Overwatch 😅

Lenke til kommentar

For oss som enda venter på skjermkort er det konge at folk legger ut sine resultater :thumbs:

Meeeeeeeeen, hadde satt pris på om folk la med specs, GPU modell, overklokk på GPU, CPU, hastighet på CPU, minnehastighet og timings, det hadde hjulpet litt. For blir litt vanskelig å bli klok på resultatene når man ikke aner hva som testes ;)

  • Liker 2
  • Innsiktsfullt 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...