Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

intel 10900K/10700K/10600K


Nizzen

Anbefalte innlegg

Hvordan blir temperaturene på 10900K med kontinuerlig høy last ved ca 5 GHz på alle kjerner? For eksempel med kjøring av spill som gir relativt høy last på CPU og samtidig H.264 encode 1080p 60 FPS i medium preset?

Antar at det er bedre å splitte oppgavene til flere maskiner da særlig krav til CPU først eksisterer når man skal gjøre flere oppgaver samtidig på én maskin.

Lenke til kommentar
Videoannonse
Annonse
20 minutes ago, BadCat said:

Hvordan blir temperaturene på 10900K med kontinuerlig høy last ved ca 5 GHz på alle kjerner? For eksempel med kjøring av spill som gir relativt høy last på CPU og samtidig H.264 encode 1080p 60 FPS i medium preset?

Antar at det er bedre å splitte oppgavene til flere maskiner da særlig krav til CPU først eksisterer når man skal gjøre flere oppgaver samtidig på én maskin.

But why?

 

  • Liker 1
Lenke til kommentar
N o r e n g skrev (På 19.5.2020 den 11.55):

Det kommer av at du må ha en eksepsjonelt god prosessor og kjøler for å passere noe høyere enn 5.1 GHz stabilt.

Det er lett å kjøre 9900k på høy frekvens med tregt minne, men det blir veldig "tomme" klokkefrekvenser. Med raskt minne vil imidlertid varmeproduksjonen øke drastisk, ikke fordi det er så mye mer strøm gjennom minnekontrolleren, men fordi regneenhetene i kjernen er aktive en vesentlig større andel av tida.

 

Det er mange som ikke bryr seg om systemet er ustabilt i Prime95, og bare aksepterer at når maskinen får blåskjerm må de inn i BIOS for å gi ekstra spenning eller lavere klokkefrekvens. Personlig er jeg ikke veldig glad i den tilnærmingen for 24/7 bruk, men det er noen som syns det er greit.

Har ikke noe så bra prosessor her, så tester mest med Prime95 for min gamle 1700 x)

Kommer kun til 3.7 ghz og 1.3v før den bare dør og restarter pcen. (1.45v med 4.32ghz er det høyeste ustabile jeg har kommet.)

e: Trodde ikke folk tok det så ustabilt med så dyr prosessor og ikke bryr seg så mye om blåskjerm ._.

(Hvis ikke dette er kun en test-pc tho..)

Endret av MultiGamerClub
Lenke til kommentar
49 minutes ago, Nizzen said:

But why?

 

Profesjonell standard er å splitte i 2-5 maskiner, hvor maskin 3 for eksempel brukes til opptak uten overlay og/eller voiceover slik at materialet kan redigeres og brukes i annen sammenheng enn bare livestream med overlay.

Lenke til kommentar
BadCat skrev (Akkurat nå):

Profesjonell standard er å splitte i 2-5 maskiner, hvor maskin 3 for eksempel brukes til opptak uten overlay og/eller voiceover slik at materialet kan redigeres og brukes i annen sammenheng enn bare livestream med overlay.

Det er ikke uvanlig at de større livestreamerne har en maskin for å kjøre spillet, og en for å ta opp video og strømme videre, men jeg kan ikke forestille meg at de trenger en maskin til for å ha chat oppe.

Lenke til kommentar

To er egentlig absolutt minimum så lenge man har råd. Siden kun full screen har lav nok latency til spilling er det veldig upraktisk å bruke alt-tab ut i OBS/nettleser og diverse. Ja, selv om man har 2-3 streamdecks til det meste av kommandoer. Spiller man eldre spill tryner skjerm 2-3-4 og 5 når man bruker full screen.

Utrolig hva jeg kan få til på en maskin med litt virtualisering/sandbox og virtual audio cable, men hvis disse prosessorene kjører veldig varmt så vil jeg heller splitte det ut i 4 maskiner i stedet for 2-3. Nye maskiner må jeg ha uansett for jeg har ikke oppdatert annet enn SSD og grafikkort de siste årene og makser ut CPU på 3 maskiner etter at jeg begynte med H.264 1080p 60 FPS. I starten brukte jeg 720p 30 FPS, men det er ikke bra nok i 2020, i alle fall ikke til YouTube.


 

Endret av BadCat
Lenke til kommentar
BadCat skrev (17 minutter siden):

To er egentlig absolutt minimum så lenge man har råd. Siden kun full screen har lav nok latency til spilling er det veldig upraktisk å bruke alt-tab ut i OBS/nettleser og diverse. Ja, selv om man har 2-3 streamdecks til det meste av kommandoer. Spiller man eldre spill tryner skjerm 2-3-4 og 5 når man bruker full screen. 2 maskiner er i mange tilfeller minimum med mindre man vil ha mye unødvendig knoting.

Utrolig hva jeg kan få til på en maskin med litt virtualisering/sandbox og virtual audio cable, men hvis disse prosessorene kjører veldig varmt så vil jeg heller splitte det ut i 4 maskiner i stedet for 2-3. Nye maskiner må jeg ha uansett for jeg har ikke oppdatert annet enn SSD og grafikkort de siste årene og makser ut CPU på 3 maskiner etter at jeg begynte med H.264 1080p 60 FPS. I starten brukte jeg 720p 30 FPS, men det er ikke bra nok i 2020, i alle fall ikke til YouTube.

Om du skal kjøre komprimering av video på CPU er Ryzen 3900X eller 3950X et bortimot åpenbart valg.
Skal du ha maksimal framerate i CS:GO og lignende bør du satse på en av disse nye prosessorene sammen med raskt minne, og overklokke minnet mest mulig.

Computerbase testet nylig Ryzen 3000 og Coffee Lake med ganske raskt minne: https://www.computerbase.de/2020-05/spieleleistung-test-intel-core-i9-9900k-amd-ryzen-9-3900x-ram-oc/2/#abschnitt_testsysteme_und_testmethodik
Som du ser er Intel fortsatt kongen hvis du skal ha absolutt maksimal framerate i spill, og Intel har rett og slett mer å vinne på raskere minne enn AMD.

Lenke til kommentar
BadCat skrev (33 minutter siden):

To er egentlig absolutt minimum så lenge man har råd. Siden kun full screen har lav nok latency til spilling er det veldig upraktisk å bruke alt-tab ut i OBS/nettleser og diverse. Ja, selv om man har 2-3 streamdecks til det meste av kommandoer. Spiller man eldre spill tryner skjerm 2-3-4 og 5 når man bruker full screen.

Utrolig hva jeg kan få til på en maskin med litt virtualisering/sandbox og virtual audio cable, men hvis disse prosessorene kjører veldig varmt så vil jeg heller splitte det ut i 4 maskiner i stedet for 2-3. Nye maskiner må jeg ha uansett for jeg har ikke oppdatert annet enn SSD og grafikkort de siste årene og makser ut CPU på 3 maskiner etter at jeg begynte med H.264 1080p 60 FPS. I starten brukte jeg 720p 30 FPS, men det er ikke bra nok i 2020, i alle fall ikke til YouTube.


 

Har dom äldre spelen nytta av en 10 core cpu då? En spel pc med två skärmar, en streaming pc med en skärm. Antingen NDI eller capture card emellan. Svårare är det väl inte? En "gammal" ryzen 1700 klarar glatt medium preset utan att stressas alltför mycket. Tror faktist en 1600 AF skulle klara det med lite custom flags också. Finns ingen grund att ha OBS på spelmaskinen alls.

Lenke til kommentar

Er vel heller på streamboksen man vil ha flere skjermer med mindre man driver med multiinstancing av spill (flere klienter).

Capture-kort har jeg så det holder, både interne (PCI-E) og eksterne (USB 3). Kjøpte i bøtter og spann da det var 75% avslag på Elgato Game Capture HD60 PRO. Jeg betalte 499,- stk noen år tilbake og nå ligger disse til 2499,-.

Vurderer å kjøre på med ASUS Maximus Formula, 2x8 GB 3600-16-16-16-16-36 og 10900K. Chassi, NVMe SSD, PSU grafikkort, har jeg fra før.

Går det an å bruke Noctua D15 (har fra før) eller bør man ha AIO/custom loop?

Kan ikke ha AMD både pga kontrakt og av personlige årsaker.

Endret av BadCat
Lenke til kommentar
38 minutes ago, N o r e n g said:

Computerbase testet nylig Ryzen 3000 og Coffee Lake med ganske raskt minne: https://www.computerbase.de/2020-05/spieleleistung-test-intel-core-i9-9900k-amd-ryzen-9-3900x-ram-oc/2/#abschnitt_testsysteme_und_testmethodik
Som du ser er Intel fortsatt kongen hvis du skal ha absolutt maksimal framerate i spill, og Intel har rett og slett mer å vinne på raskere minne enn AMD.

Når sant skal sies så er det der veldig langt unna hva som er mulig å få til med 2 dimms :)

Lenke til kommentar
Mumriken skrev (23 minutter siden):

Når sant skal sies så er det der veldig langt unna hva som er mulig å få til med 2 dimms :)

De tidligere resultatene i tråden her tyder på at det er mulig å få en lavere tCL, tRCD, tRP, og tRAS i forhold til klokkefrekvens, men alle tertiære timinger som ender med _dr eller _dd er fullstendig irrellevante for et 2x8GB oppsett, de omhandler different rank og different dimm. På et 2x8GB oppsett kan du bokstavelig talt kjøre dem på 1 uten at det har noe å si

 

Tester er ute:

https://www.anandtech.com/show/15785/the-intel-comet-lake-review-skylake-we-go-again

https://www.overclockers.com/intel-core-i9-10900k-and-i5-10600k-cpu-review-the-core-wars-continue/

As we can see by the Prime95 small FFT results, the i9-10900K sucks down 372 W of power (at the wall) and reaches 94°C with the 240 mm EVGA CLC we use.

?

Lenke til kommentar

Med vårt slutna vattenkylningspaket var det inte heller några problem att hålla temperaturerna i schack, trots tio kärnor körandes i 5,1 GHz. När vi applicerade en AVX-baserad last över alla kärnor uppnådde vi 73 °C, vilket kändes fullt rimligt.

Endret av Nizzen
Lenke til kommentar
29 minutes ago, N o r e n g said:

De tidligere resultatene i tråden her tyder på at det er mulig å få en lavere tCL, tRCD, tRP, og tRAS i forhold til klokkefrekvens, men alle tertiære timinger som ender med _dr eller _dd er fullstendig irrellevante for et 2x8GB oppsett, de omhandler different rank og different dimm. På et 2x8GB oppsett kan du bokstavelig talt kjøre dem på 1 uten at det har noe å si

Det er underforstått. Tenker først og fremst på den lave hastigheten kombinert med slappe primær timings

Noen som har sett en test av "IMC"? Ellers er alt som forventet

Lenke til kommentar
Nizzen skrev (44 minutter siden):

Med vårt slutna vattenkylningspaket var det inte heller några problem att hålla temperaturerna i schack, trots tio kärnor körandes i 5,1 GHz. När vi applicerade en AVX-baserad last över alla kärnor uppnådde vi 73 °C, vilket kändes fullt rimligt.

De testet med AIDA64 FPU, ut fra at 10600K ble varmere er det sannsynlig at den er begrenset av minnebåndbredde...

Tom's Hardware kom opp i 100C med både Corsair H115i og en NH-D15, men det var med Gigabytes "stock" som lot CPU bruke så mye strøm den ville.

Endret av N o r e n g
  • Liker 1
Lenke til kommentar
2 minutes ago, N o r e n g said:

De testet med AIDA64 FPU, ut fra at 10600K ble varmere er det sannsynlig at den er begrenset av minnebåndbredde...

Tom's Hardware kom opp i 100C med både Corsair H115i og en NH-D15, men det var med Gigabytes "stock" som lot CPU bruke så mye strøm den ville.

Jeg tror 10600k ble varmere fordi den har mindre die enn 10900k. Mulig dårliger binnet også.

Lenke til kommentar
Nizzen skrev (4 minutter siden):

Jeg tror 10600k ble varmere fordi den har mindre die enn 10900k. Mulig dårliger binnet også.

Binning har ikke noe å si, du linket til overklokkede resultater. 10600K-systemet brukte ca 30W per kjerne, mens 10900K-systemet brukte 25W per kjerne hos Sweclockers, det er forskjellen og utslaget.

Lenke til kommentar

Tech Jesus has spoken.

TLDR, ikke verdt det for de fleste. (med mindre du vil ha de siste ekstra prosentene med performance i spill). 

 

Da er i9-10600K mye mer interessant produkt, som vi nok får se i videoen han slipper imorgen. 

Endret av Frode789
  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...