JFM Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 (endret) Nizzen skrev (10 timer siden): Da får du ca 160fps tenker jeg. Burde jo holde om du har 3440x1440 144hz Betyr dette at min Ryzen 7 3700X og 16gb 3733mhz cl16 vil være flaskehals for 3080? Til 1440 @165hz Endret 2. oktober 2020 av JFM Lenke til kommentar
Uderzo Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 JFM skrev (12 minutter siden): Betyr dette at min Ryzen 7 3700X og 16gb 3733mhz cl16 vil være flaskehals for 3080? Til 1440 @165hz Jeg har lignende specs og jeg får plenty fps, så det er ingen grunn bekymring Lenke til kommentar
Dingy Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 (endret) Stusser litt på at folk mener 3090 er for dyrt for 10-20% ytelse over 3080. I "gamle dager" var det normalt med 20% ytelses økning mellom generasjoner og man handlet nye kort uten å klage. Tror "problemet" her er at folk ble for bortskjemte med at 3080 ga så mye så billig. Jeg kjøpte 3090 rett og slett fordi jeg ikke orker den evige "skal jeg vente på at det kanskje kommer en TI eller Super utgave". Nå vet jeg at jeg har den beste i de neste årene, og kjøpte heller en litt billigere mobiltelefon (P30 pro til 5000,- istedenfor S20 Ultra til 16000,-) MEN, nå som jeg har lekt meg litt med 3090 kortet så stusser jeg over en ting dere som har stålkontroll her sikkert kan svare meg på: i f.eks. GTA V (eller Farcry 5, Snowrunner, osv) så ligger GPU usage ofte rundt 60-80% og CPU usage rundt 30-40%. (FPS gjerne rundt 100-120 med alt på Ultra). For all del, det er helt greit å spille på, men hvorfor er ikke GPU maxet (ev. CPU hvis det var flaskehalsen). Er det minnebåndbredden som holder igjen? (er det noen måte å måle minnebåndbredde bruken?) Jeg har ikke VSYNC på så den skulle jo bare slengt ut så mange FPS den klarte å produsere. Er det fordi spillet ikke bruker alle Tensor/CUDA kjernene og at det dermed rapporteres "feil"? Det som er rart er at en gang iblant, i gitte settinger, så er GPU oppe i 100% så rart om det skulle være det også. Specs forøvrig er i9-9900kf @ 5ghz, 32gb G.Skill Ripjaws V DDR4 3600Mhz CL16 (16-16-16-36) @ XMP2 på ett ASUS PRIME Z390-A på en Asus TUF 32" 2560x1440 144hz skjerm. Edit: PSU er ett 1050W Gold. Endret 2. oktober 2020 av Dingy 1 Lenke til kommentar
N o r e n g Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 JFM skrev (6 minutter siden): Betyr dette at min Ryzen 7 3700X og 16gb 3733mhz cl16 vil være flaskehals for 3080? Til 1440 @165hz Ja og nei, det kommer an på spillet. Battlefield-spillene er mye mer sensitive til CPU og minneytelse enn f. eks. Rainbow 6 Siege eller CS:GO. Lenke til kommentar
Thor. Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 Jeg fikk faktisk en BSOD i går knyttet til nvlddmkm.sys. Jeg trykket på play i en video i nettleseren. Håper det var et engangstilfelle. DRIVER_IRQL_NOT_LESS_OR_EQUAL The computer has rebooted from a bugcheck. The bugcheck was: 0x000000d1 (0xfffff8053ada2edc, 0x0000000000000002, 0x0000000000000008, 0xfffff8053ada2edc). 1 Lenke til kommentar
N o r e n g Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 Dingy skrev (Akkurat nå): Stusser litt på at folk mener 3090 er for dyrt for 10-20% ytelse over 3080. I "gamle dager" var det normalt med 20% ytelses økning mellom generasjoner og man handlet nye kort uten å klage. Tror "problemet" her er at folk ble for bortskjemte med at 3080 ga så mye så billig. Jeg kjøpte 3090 rett og slett fordi jeg ikke orker den evige "skal jeg vente på at det kanskje kommer en TI eller Super utgave". Nå vet jeg at jeg har den beste i de neste årene, og kjøpte heller en litt billigere mobiltelefon (P30 pro til 5000,- istedenfor S20 Ultra til 16000,-) MEN, nå som jeg har lekt meg litt med 3090 kortet så stusser jeg over en ting dere som har stålkontroll her sikkert kan svare meg på: i f.eks. GTA V (eller Farcry 5, Snowrunner, osv) så ligger GPU usage ofte rundt 60-80% og CPU usage rundt 30-40%. (FPS gjerne rundt 100-120 med alt på Ultra). For all del, det er helt greit å spille på, men hvorfor er ikke GPU maxet (ev. CPU hvis det var flaskehalsen). Er det minnebåndbredden som holder igjen? (er det noen måte å måle minnebåndbredde bruken?) Jeg har ikke VSYNC på så den skulle jo bare slengt ut så mange FPS den klarte å produsere. Specs forøvrig er i9-9900kf @ 5ghz, 32gb G.Skill Ripjaws V DDR4 3600Mhz CL16 (16-16-16-36) på ett ASUS PRIME Z390-A på en Asus TUF 32" 2560x1440 144hz skjerm. La meg illustrere hvorfor jeg ikke vurderer 3090: Her ser du gevinsten man sitter igjen med ved å ta steget opp fra XX80, og 3090 stiller vesentlig dårligere enn 2080 Ti. Jeg har ikke plottet inn 1080 Ti her, men det hadde ikke sett bedre ut med det kortet heller. Som du selv sier er 3080 "for billig" i forhold. Angående problemet ditt, så er du begrenset av entrådet ytelse, derfor ser du ikke mer enn 60-80% GPU Utilization i de spillene. Selv om din 9900K har 16 tråder som kan jobbe er spillet fortsatt begrenset av at en enkelt tråd tar "lang" tid, og resten av CPU og GPU blir ventende på at den blir ferdig. Og for de som liker å bruke ordet "bottleneck" eller flaskehals, så er dette et tilfelle der det er riktig å bruke ordet. Ikke en problematisk flaskehals ettersom ytelsen fortsatt er veldg god, men fortsatt en flaskehals. 3 1 Lenke til kommentar
Dingy Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 (endret) N o r e n g skrev (14 minutter siden): La meg illustrere hvorfor jeg ikke vurderer 3090: "image" Her ser du gevinsten man sitter igjen med ved å ta steget opp fra XX80, og 3090 stiller vesentlig dårligere enn 2080 Ti. Jeg har ikke plottet inn 1080 Ti her, men det hadde ikke sett bedre ut med det kortet heller. Som du selv sier er 3080 "for billig" i forhold. Angående problemet ditt, så er du begrenset av entrådet ytelse, derfor ser du ikke mer enn 60-80% GPU Utilization i de spillene. Selv om din 9900K har 16 tråder som kan jobbe er spillet fortsatt begrenset av at en enkelt tråd tar "lang" tid, og resten av CPU og GPU blir ventende på at den blir ferdig. Og for de som liker å bruke ordet "bottleneck" eller flaskehals, så er dette et tilfelle der det er riktig å bruke ordet. Ikke en problematisk flaskehals ettersom ytelsen fortsatt er veldg god, men fortsatt en flaskehals. Jeg er helt enig i FPS pr. krone dilemmaet, og burde vel selv også valgt 3080. Men så er 3080 "super" med 20gb ram rett rundt hjørnet da... også sitter man der og venter 😉 Ok, så jeg må aktivere alle kjernene mine i on-screen-display og se om det er noen av de som er makset, og dermed finne flaskehalsen. Ville det hjulpet å skru av hyper-threading som i gamle dager, eller har det blitt så bra at det ikke legges to tunge operasjoner på den samme fysiske kjernen lenger? Tok akkurat en liten test-run... og, foruten CPU3 som er på 75% så er da resten ute på piknik og koser seg, men GPU usage er på 57% og kun 101 FPS... Det skal sies at i andre settinger/situasjoner så er GPU oppe i 97 ish % ... Endret 2. oktober 2020 av Dingy Lenke til kommentar
Nizzen Skrevet 2. oktober 2020 Forfatter Del Skrevet 2. oktober 2020 (endret) 24 minutes ago, Dingy said: Stusser litt på at folk mener 3090 er for dyrt for 10-20% ytelse over 3080. I "gamle dager" var det normalt med 20% ytelses økning mellom generasjoner og man handlet nye kort uten å klage. Tror "problemet" her er at folk ble for bortskjemte med at 3080 ga så mye så billig. Jeg kjøpte 3090 rett og slett fordi jeg ikke orker den evige "skal jeg vente på at det kanskje kommer en TI eller Super utgave". Nå vet jeg at jeg har den beste i de neste årene, og kjøpte heller en litt billigere mobiltelefon (P30 pro til 5000,- istedenfor S20 Ultra til 16000,-) MEN, nå som jeg har lekt meg litt med 3090 kortet så stusser jeg over en ting dere som har stålkontroll her sikkert kan svare meg på: i f.eks. GTA V (eller Farcry 5, Snowrunner, osv) så ligger GPU usage ofte rundt 60-80% og CPU usage rundt 30-40%. (FPS gjerne rundt 100-120 med alt på Ultra). For all del, det er helt greit å spille på, men hvorfor er ikke GPU maxet (ev. CPU hvis det var flaskehalsen). Er det minnebåndbredden som holder igjen? (er det noen måte å måle minnebåndbredde bruken?) Jeg har ikke VSYNC på så den skulle jo bare slengt ut så mange FPS den klarte å produsere. Er det fordi spillet ikke bruker alle Tensor/CUDA kjernene og at det dermed rapporteres "feil"? Det som er rart er at en gang iblant, i gitte settinger, så er GPU oppe i 100% så rart om det skulle være det også. Specs forøvrig er i9-9900kf @ 5ghz, 32gb G.Skill Ripjaws V DDR4 3600Mhz CL16 (16-16-16-36) @ XMP2 på ett ASUS PRIME Z390-A på en Asus TUF 32" 2560x1440 144hz skjerm. Edit: PSU er ett 1050W Gold. Farcry 5. Kjør samme benchmark og post bildet her. Da kan vi fortelle deg hva flaskehalsen er 3440x1440 1080p Endret 2. oktober 2020 av Nizzen Lenke til kommentar
Nizzen Skrevet 2. oktober 2020 Forfatter Del Skrevet 2. oktober 2020 58 minutes ago, JFM said: Betyr dette at min Ryzen 7 3700X og 16gb 3733mhz cl16 vil være flaskehals for 3080? Til 1440 @165hz Ja i mange spill, men du får sikkert høy nok fps Bra nok er også nok 2 Lenke til kommentar
Nizzen Skrevet 2. oktober 2020 Forfatter Del Skrevet 2. oktober 2020 3 minutes ago, Dingy said: 1080p 2560 x 1440 Som du ser, så er du cpubound/minnebound i 1440p også. Det ser du godt på min fps. Jeg kjører 10900k@ 5.5ghz og 4700c17 1t max tweaket minne. Da ser du hvor mye det hjelper med veldig raskt minne med high end gpu 1 Lenke til kommentar
KriZZ Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 Nizzen skrev (Akkurat nå): Jeg kjører 10900k@ 5.5ghz og 4700c17 1t max tweaket minne. Da ser du hvor mye det hjelper med veldig raskt minne med high end gpu Hvilke minnebrikker er dette? Lukter en fremtidig oppgradering her! Lenke til kommentar
Nizzen Skrevet 2. oktober 2020 Forfatter Del Skrevet 2. oktober 2020 Just now, KriZZ said: Hvilke minnebrikker er dette? Lukter en fremtidig oppgradering her! Team extreem 4500c18, men andre gode b-die brikker kan klare det samme med godt hovedkort. F.eks G.skill 4000c15, gode viper 4400c19 osv... Du kan også ha flaks med ny revisjon av 3600c15 og 3200c14. Lenke til kommentar
Theo343 Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 (endret) 3900X uklokka med 4x8GB@3733CL14 i 3840x1600. Helt klart at den er singlecore og minnehastighet sensitiv, selv om jeg kjører litt høyere oppløsning. Ventus 3080 stock. Endret 2. oktober 2020 av Theo343 Lenke til kommentar
KriZZ Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 Nizzen skrev (4 minutter siden): Team extreem 4500c18, men andre gode b-die brikker kan klare det samme med godt hovedkort. F.eks G.skill 4000c15, gode viper 4400c19 osv... Du kan også ha flaks med ny revisjon av 3600c15 og 3200c14. Ja jeg har snust litt på disse: https://www.multicom.no/gskill-tridentz-rgb-series-ddr4/cat-p/c/p1001203488 Føler nesten at det blir et must sammen med 3090 nå. Kjører i dag på Usle 3600c19 og vil tro det blir en helt strait oppgradering om jeg går for nye brikker. Lenke til kommentar
Dingy Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 Nizzen skrev (37 minutter siden): Som du ser, så er du cpubound/minnebound i 1440p også. Det ser du godt på min fps. Jeg kjører 10900k@ 5.5ghz og 4700c17 1t max tweaket minne. Da ser du hvor mye det hjelper med veldig raskt minne med high end gpu Jøss, imponerende hvordan du klarer å lese det ut av de kurvene 🙂 er det fordi det er forskjellige ting som belastes på de forskjellige punktene i benchmark'en? Jeg fulgte med på CPU usage ila. benchmark'en og så aldri noe over 80% på noen kjerner, er det minnet som begrenser mest da kanskje? Skal prøve å overklokke brikkene mine og se Lenke til kommentar
Nizzen Skrevet 2. oktober 2020 Forfatter Del Skrevet 2. oktober 2020 35 minutes ago, KriZZ said: Ja jeg har snust litt på disse: https://www.multicom.no/gskill-tridentz-rgb-series-ddr4/cat-p/c/p1001203488 Føler nesten at det blir et must sammen med 3090 nå. Kjører i dag på Usle 3600c19 og vil tro det blir en helt strait oppgradering om jeg går for nye brikker. Har akkurat det kittet sammen med Asus formula z490 og 10900k. Gameren til lillegutt Han spiller mest Overwatch 😅 Lenke til kommentar
KriZZ Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 Nizzen skrev (3 minutter siden): Har akkurat det kittet sammen med Asus formula z490 og 10900k. Gameren til lillegutt Han spiller mest Overwatch 😅 Heldig lillegutt😂 Lenke til kommentar
Emile the rat Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 For oss som enda venter på skjermkort er det konge at folk legger ut sine resultater Meeeeeeeeen, hadde satt pris på om folk la med specs, GPU modell, overklokk på GPU, CPU, hastighet på CPU, minnehastighet og timings, det hadde hjulpet litt. For blir litt vanskelig å bli klok på resultatene når man ikke aner hva som testes 2 1 Lenke til kommentar
Theo343 Skrevet 2. oktober 2020 Del Skrevet 2. oktober 2020 Jeg la til CL14 og Ventus 3080 uklokka på min 1 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå