Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

Broadwell-E Intel i7-6950X, 6900K, 6850K, & 6800K-tråden


C64C

Anbefalte innlegg

Videoannonse
Annonse
  • 2 uker senere...

Ha 4 kjerner i 2016? Ikkje faen ;)

 

På tide vi kan få utnyttet våre 8-kjerne CPU'er i spill nå da. Ikke rart BF1 krever så mye av CPU siden det er ganske mye som skjer på slagmarken samtidig. Det blir litt spennende å se hvor bra Kaby Lake 7700K vil gjøre det opp mot 6900K i Battlefield 1. Ja 4-kjerne med HT bare, men IPC spiller fortsatt en viktig rolle. Kan ikke bare se oss blind på ren CPU bruk i % heller.

Lenke til kommentar

Fikk skikkelig juling min 5820k@4,5Ghz også, MEN holdt meg stort sett rundt fps cap på 200 med drops nedmot 160-70 under open beta. Har ikke testet det ferdige spillet enda. Low settings på det meste bortsett fra textures og mesh på høyeste.

 

post-166959-0-74296800-1476779159_thumb.jpg

 

Hadde vært spennede å se hvilken load og fps en skylake i5/i7 med tilsvarende settings får

Lenke til kommentar

 

Poster det her også :p

 

BF1 3440x1440

2x1080 HB sli

6900k HT=off

 

attachicon.gifbf1 mp cpu ht off.jpg

 

Ha 4 kjerner i 2016? Ikkje faen ;)

Hadde vært interessant å se denne med kun ett 1080 også :)  Hva ca ligger cpu på da?

 

 

Tror jeg har den på 4.2 ghz. Max er 4.4 på min broadwell-e. Med 4.2 ghz så trenger jeg vesentlig mindre spenning enn 4.4. Perfekt når jeg folder med cpu F@H.

Lenke til kommentar

Som sagt mange ganger før: CPU-forbruk sier ingenting om faktisk ytelse.

Nå har jo noen tidligere henvist til GameGPUs CPU-benchmark av BF1 Alpha (de kommer trolig med en til når det fulle spillet er ute), der Skylake leder i ytelse. GameGPU er dessverre den eneste CPU-målingen vi har å basere oss på for øyeblikket. Jeg sier "dessverre" fordi nettstedet har utrolig dårlige målinger, med CPUer i ulike klokkehastigheter, forskjellige systemer med forskjellig innmat, ingen info om hvorvidt skjermkortene er referanse eller ei (kanskje jeg har oversett noe?), og ikke minst dårlige tester i seg selv. I tillegg har man tidligere sett at tallene deres ikke alltid samsvarer med de fra andre nettsted. Spillene har en tendens å skille utrolig mye i FPS basert på CPU alene, i forhold til andre tester og.

Inntil videre kan vi bare basere oss på YouTube-videor og andre tester utført av enkeltpersoner. I et system jeg nettopp bygde til en kamerat, som hadde en 6600K og et 1070 (referanse) installert, fikk jeg mer eller mindre samme FPS i 1440p Ultra som de ulike nettstedene viste i sine tester, som i hovedsak var gjort med 5960X. Vi prøvde å sette inn en 6700K, og så en liten økning, men ikke nok til at det var relevant. YouTube-videoer av andre brukere med de samme spesifikasjonene viser det samme.

Vi får se hvordan dette blir i de neste dagene etter at BF1 lanseres, når DICE kommer med oppdateringer (og optimaliseringer) til spillet. Men enn så lenge har jeg fortsatt til gode å se forskjell i ytelse mellom 6700K og for eks. 5960X. Det fins nesten like mange hardware-nettsted som har testet BF1 i et Skylake-system (6700K) som i Haswell-E (5960X), og jeg ser ingen forskjell i tallene mellom dem.

Det er også verdt å merke seg tyske Computerbase' test av BF1, der de viser ytelse i både Singleplayer og Multiplayer. Der det er noe tap av ytelse fra SP til MP i 1080p, er det nesten ingen forskjell i 1440p og økning i ytelse i 4K for 6700K. 

 

Noen som har gjort dette? Ikke så ille pris for dette, kun $35.

 

Bortkasting av penger. Du har allerede 5 års garanti i Norge. Om det er overklokking du er bekymret for, og at CPUene skal ryke under dette, så er det ingen måter for de å finne det ut på.

Endret av La Menthe
Lenke til kommentar

 

 

Jeg har ikke helt forstått poenget med å deaktivere Hyper-Threading. Får man bedre ytelse ved å ikke bruke disse virtuelle kjernene?
 
For det meste: nei. Legg merke til at jeg generaliserer begrepet "spill". Jeg er ikke interessert i å håndplukke de fåtall spill som faktisk får relevante gevinster av flere tråder, men i stedet gjennomsnittspillet og hvordan den påvirkes av kjerner/tråder.
 
Ved å gjøre den samme kjernen tilgjengelig for to prosesser på en gang gjennom HT (2 virtuelle kjerner), kan man få litt ekstra ytelse for et gitt scenario. Som et resultat får du en liten ytelsesøkning (i normal bruk). Men for de fleste scenarier overfører man bare halvparten av kjernens tid til en prosess, og halvparten til den andre.
 
Grunnen til at du ikke vil ha dette i (de fleste) spill er fordi de sjeldent gjør det slikt; det er svært vanskelig å splitte spilllogikk på tvers av flere kjerner. De har vanligvis en prosess, og vanligvis bare en tråd som teller. Du vil helst ha 100% av kjernebehandlingstiden viet til den ene tråden, uten unntak. Ingen deling og ingen HT (hyperthreading). For spill er det ingenting annet som virkelig teller. Man bryr seg ikke om at datamaskinens generelle ytelse vil være noe høyere med hyperthreading fordi den "generelle ytelsen" omfatter i bunn og grunn oppgaver og applikasjoner de fleste ikke bryr seg om. Og det kommer på bekostning av andre ting som folk bryr seg om: spill. Du bryr deg ikke om at en WinRar-utpakkibg går en brøkdel av et sekund raskere fordi det er i stand til å gjøre noen ekstra operasjoner på den samme kjernen som spillet ditt bruker (og dermed går over dets ytelse). 
 
Om du spiller BF4 vil du for eks. legge merke til at den vil kunne aktivt bruke 8 tråder. Men selv med bare 4 tråder får du samme ytelse. I de fleste spill går det ofte i favør prosessoren med færre tråder. 6700K er hele 20% bedre enn 5820K i Far Cry 4, mens de yter likt når du slår av 5820Ks HT, for å gi deg et ekstremt eksempel. 
 
Så har du den andre siden av mynten, med de (veldig få) spill som har effektiv behandling av tråder ved å fullt ut utnytte CPUens beregningsressurser på tvers av kjerner, når de har behov for flere tråder. Et godt eksempel på det er GTA 5, som ser en tydelig økning i ytelse fra 6600K til 6700K.
 
Når det gjelder BF1, så jeg personlig ingen tegn på dette når jeg testet mellom 6600K og 6700K. Om dette kommer av at BF fortsatt i bunn og grunn er avhengig av ytelsen på de fire første kjernene (alle spill er jo egentlig det...), eller om begge prosessorene var flaskehalser, kan jeg ærlig talt ikke si. Uansett tror jeg det er best å vente på en grundig CPU-benchmark av spillet, før vi kan stadfeste noe som helst (og nei, en benchmark fra russiske GameGPU går ikke under denne definisjonen!)
Endret av La Menthe
Lenke til kommentar

La Menthe : Noe som kan være av interesse her er minimum fps og hvordan den påvirkes av flere CPU kjerner i spill som bruker 8 tråder og mer, som BF1. Kanskje ikke din testing av 6600K/6700K + GTX 1070 viste særlig forskjell, men hvis man tar steget opp til Titan XP, så kan ting endre seg og CPU blir mer en flaskehals. Iallefall for 1080p gaming i BF1. Mer testing av flere folk må vel til for å avkrefte eller bekrefte dette når den endelige versonen av spillet er ute.

Endret av Betroz
Lenke til kommentar

Minimums-FPS var akkurat den forskjellen jeg så, når jeg testet mellom 6600K og 6700K. Selv om den i min mening ikke var vesentlig, kan jeg ikke fornekte for at den var der.

Hvorvidt slike ting har utslag på hvor kraftig GPU man har, er det egentlig ingen bevis på (som jeg vet om). Jeg har hørt dette snakket helt siden Keplerseriens dager, da to stk. GTX 680er visstnok skapte flaskehals, med mindre man hadde ekstreme CPUer. Hvordan folk ikke ser at denne påstanden forlengst har gått ut på dato, når det stadig kommer ut nyere og mye kraftigere GPUer, mens prosessorene har stått mer eller mindre stille, er helt utrolig. Tom. dagens GTX 1060 eller RX 480 er ekstreme i ytelse i forhold til GPUer for bare to-tre år tilbake; hvorfor snakker ingen om flaskehals på disse? Eller hva med GTX 1070 og 1080 på laptoper med mobile U-prosessorer; der må vel flaskehalsen være overveldende?

Det morsomme er at du mener 1070en ikke ga meg noen flaskehals, men om jeg hadde hatt Titan XP hadde jeg fått det. For 1 år tilbake hadde jeg samme diskusjon med en annen bruker her inne, angående testbenker med GTX 980 og 290X, når vi vurderte forskjellen i ytelse mellom Haswell-E og Skylake. Da mente den personen at det hadde vært bedre å teste med en 980 Ti (som nå tilsvarer en dårligere 1070 i ytelse), for å tvinge fram en eventuell flaskehals.

Endret av La Menthe
Lenke til kommentar

Det morsomme er at du mener 1070en ikke ga meg noen flaskehals, men om jeg hadde hatt Titan XP hadde jeg fått det.

 

Poenget mitt var bare at jo kraftigere GPU, jo lettere vil man se om CPU er en flaskehals. Har man et SLI oppsett, så vil CPU bli stresset mer.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...