bshagen Skrevet 6. oktober 2016 Del Skrevet 6. oktober 2016 Må jo søle rundt med en hel tube av kjølepasta på den der! Jeg liker'e Lenke til kommentar
Knutgrus Skrevet 6. oktober 2016 Del Skrevet 6. oktober 2016 Utviklinga står ikkje helt stille hos Intel iallefall: ... Du kommer tilbake med benching ved diverse minnehastigheter og aksesstider. Med enkelt skjermkort og 2/3/4 way sli? Hvor mange fps får du ekstra i Crysis med 6-kanals minne? Lenke til kommentar
Betroz Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Battlefield 1 trenger visst ikke bare et raskt skjermkort : Battlefield 1 AMIENS Conquest 64 Players INSANE CPU LOAD RIP INTEL i5?| GTX 1080 | i7 5960X 4.5GHz Lenke til kommentar
Nizzen Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Poster det her også BF1 3440x1440 2x1080 HB sli 6900k HT=off Ha 4 kjerner i 2016? Ikkje faen 3 Lenke til kommentar
Betroz Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Ha 4 kjerner i 2016? Ikkje faen På tide vi kan få utnyttet våre 8-kjerne CPU'er i spill nå da. Ikke rart BF1 krever så mye av CPU siden det er ganske mye som skjer på slagmarken samtidig. Det blir litt spennende å se hvor bra Kaby Lake 7700K vil gjøre det opp mot 6900K i Battlefield 1. Ja 4-kjerne med HT bare, men IPC spiller fortsatt en viktig rolle. Kan ikke bare se oss blind på ren CPU bruk i % heller. Lenke til kommentar
Mumriken Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Fikk skikkelig juling min 5820k@4,5Ghz også, MEN holdt meg stort sett rundt fps cap på 200 med drops nedmot 160-70 under open beta. Har ikke testet det ferdige spillet enda. Low settings på det meste bortsett fra textures og mesh på høyeste. Hadde vært spennede å se hvilken load og fps en skylake i5/i7 med tilsvarende settings får Lenke til kommentar
DJViking Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Poster det her også BF1 3440x1440 2x1080 HB sli 6900k HT=off bf1 mp cpu ht off.jpg Ha 4 kjerner i 2016? Ikkje faen Jeg har ikke helt forstått poenget med å deaktivere Hyper-Threading. Får man bedre ytelse ved å ikke bruke disse virtuelle kjernene? Lenke til kommentar
Christian Thork Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 CPU usage for meg gikk aldri over 30%? Lenke til kommentar
Nizzen Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Poster det her også BF1 3440x1440 2x1080 HB sli 6900k HT=off bf1 mp cpu ht off.jpg Ha 4 kjerner i 2016? Ikkje faen Jeg har ikke helt forstått poenget med å deaktivere Hyper-Threading. Får man bedre ytelse ved å ikke bruke disse virtuelle kjernene? I noen spill ja, og man ser lettere hvor mye et spill utnytter kjernene. Lenke til kommentar
blinc Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Poster det her også BF1 3440x1440 2x1080 HB sli 6900k HT=off bf1 mp cpu ht off.jpg Ha 4 kjerner i 2016? Ikkje faen Hadde vært interessant å se denne med kun ett 1080 også Hva ca ligger cpu på da? Lenke til kommentar
Nizzen Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Poster det her også BF1 3440x1440 2x1080 HB sli 6900k HT=off bf1 mp cpu ht off.jpg Ha 4 kjerner i 2016? Ikkje faen Hadde vært interessant å se denne med kun ett 1080 også Hva ca ligger cpu på da? Tror jeg har den på 4.2 ghz. Max er 4.4 på min broadwell-e. Med 4.2 ghz så trenger jeg vesentlig mindre spenning enn 4.4. Perfekt når jeg folder med cpu F@H. Lenke til kommentar
DJViking Skrevet 19. oktober 2016 Del Skrevet 19. oktober 2016 Intel actually offers a protection plan specifically for overclocker’s, which you can purchase in addition to their standard 3-year warranty. http://click.intel.com/tuningplan/purchase-a-plan Noen som har gjort dette? Ikke så ille pris for dette, kun $35. Lenke til kommentar
La Menthe Skrevet 20. oktober 2016 Del Skrevet 20. oktober 2016 (endret) Som sagt mange ganger før: CPU-forbruk sier ingenting om faktisk ytelse.Nå har jo noen tidligere henvist til GameGPUs CPU-benchmark av BF1 Alpha (de kommer trolig med en til når det fulle spillet er ute), der Skylake leder i ytelse. GameGPU er dessverre den eneste CPU-målingen vi har å basere oss på for øyeblikket. Jeg sier "dessverre" fordi nettstedet har utrolig dårlige målinger, med CPUer i ulike klokkehastigheter, forskjellige systemer med forskjellig innmat, ingen info om hvorvidt skjermkortene er referanse eller ei (kanskje jeg har oversett noe?), og ikke minst dårlige tester i seg selv. I tillegg har man tidligere sett at tallene deres ikke alltid samsvarer med de fra andre nettsted. Spillene har en tendens å skille utrolig mye i FPS basert på CPU alene, i forhold til andre tester og.Inntil videre kan vi bare basere oss på YouTube-videor og andre tester utført av enkeltpersoner. I et system jeg nettopp bygde til en kamerat, som hadde en 6600K og et 1070 (referanse) installert, fikk jeg mer eller mindre samme FPS i 1440p Ultra som de ulike nettstedene viste i sine tester, som i hovedsak var gjort med 5960X. Vi prøvde å sette inn en 6700K, og så en liten økning, men ikke nok til at det var relevant. YouTube-videoer av andre brukere med de samme spesifikasjonene viser det samme.Vi får se hvordan dette blir i de neste dagene etter at BF1 lanseres, når DICE kommer med oppdateringer (og optimaliseringer) til spillet. Men enn så lenge har jeg fortsatt til gode å se forskjell i ytelse mellom 6700K og for eks. 5960X. Det fins nesten like mange hardware-nettsted som har testet BF1 i et Skylake-system (6700K) som i Haswell-E (5960X), og jeg ser ingen forskjell i tallene mellom dem.Det er også verdt å merke seg tyske Computerbase' test av BF1, der de viser ytelse i både Singleplayer og Multiplayer. Der det er noe tap av ytelse fra SP til MP i 1080p, er det nesten ingen forskjell i 1440p og økning i ytelse i 4K for 6700K. Noen som har gjort dette? Ikke så ille pris for dette, kun $35. Bortkasting av penger. Du har allerede 5 års garanti i Norge. Om det er overklokking du er bekymret for, og at CPUene skal ryke under dette, så er det ingen måter for de å finne det ut på. Endret 20. oktober 2016 av La Menthe Lenke til kommentar
La Menthe Skrevet 20. oktober 2016 Del Skrevet 20. oktober 2016 (endret) Jeg har ikke helt forstått poenget med å deaktivere Hyper-Threading. Får man bedre ytelse ved å ikke bruke disse virtuelle kjernene? For det meste: nei. Legg merke til at jeg generaliserer begrepet "spill". Jeg er ikke interessert i å håndplukke de fåtall spill som faktisk får relevante gevinster av flere tråder, men i stedet gjennomsnittspillet og hvordan den påvirkes av kjerner/tråder. Ved å gjøre den samme kjernen tilgjengelig for to prosesser på en gang gjennom HT (2 virtuelle kjerner), kan man få litt ekstra ytelse for et gitt scenario. Som et resultat får du en liten ytelsesøkning (i normal bruk). Men for de fleste scenarier overfører man bare halvparten av kjernens tid til en prosess, og halvparten til den andre. Grunnen til at du ikke vil ha dette i (de fleste) spill er fordi de sjeldent gjør det slikt; det er svært vanskelig å splitte spilllogikk på tvers av flere kjerner. De har vanligvis en prosess, og vanligvis bare en tråd som teller. Du vil helst ha 100% av kjernebehandlingstiden viet til den ene tråden, uten unntak. Ingen deling og ingen HT (hyperthreading). For spill er det ingenting annet som virkelig teller. Man bryr seg ikke om at datamaskinens generelle ytelse vil være noe høyere med hyperthreading fordi den "generelle ytelsen" omfatter i bunn og grunn oppgaver og applikasjoner de fleste ikke bryr seg om. Og det kommer på bekostning av andre ting som folk bryr seg om: spill. Du bryr deg ikke om at en WinRar-utpakkibg går en brøkdel av et sekund raskere fordi det er i stand til å gjøre noen ekstra operasjoner på den samme kjernen som spillet ditt bruker (og dermed går over dets ytelse). Om du spiller BF4 vil du for eks. legge merke til at den vil kunne aktivt bruke 8 tråder. Men selv med bare 4 tråder får du samme ytelse. I de fleste spill går det ofte i favør prosessoren med færre tråder. 6700K er hele 20% bedre enn 5820K i Far Cry 4, mens de yter likt når du slår av 5820Ks HT, for å gi deg et ekstremt eksempel. Så har du den andre siden av mynten, med de (veldig få) spill som har effektiv behandling av tråder ved å fullt ut utnytte CPUens beregningsressurser på tvers av kjerner, når de har behov for flere tråder. Et godt eksempel på det er GTA 5, som ser en tydelig økning i ytelse fra 6600K til 6700K. Når det gjelder BF1, så jeg personlig ingen tegn på dette når jeg testet mellom 6600K og 6700K. Om dette kommer av at BF fortsatt i bunn og grunn er avhengig av ytelsen på de fire første kjernene (alle spill er jo egentlig det...), eller om begge prosessorene var flaskehalser, kan jeg ærlig talt ikke si. Uansett tror jeg det er best å vente på en grundig CPU-benchmark av spillet, før vi kan stadfeste noe som helst (og nei, en benchmark fra russiske GameGPU går ikke under denne definisjonen!) Endret 20. oktober 2016 av La Menthe Lenke til kommentar
Betroz Skrevet 20. oktober 2016 Del Skrevet 20. oktober 2016 (endret) La Menthe : Noe som kan være av interesse her er minimum fps og hvordan den påvirkes av flere CPU kjerner i spill som bruker 8 tråder og mer, som BF1. Kanskje ikke din testing av 6600K/6700K + GTX 1070 viste særlig forskjell, men hvis man tar steget opp til Titan XP, så kan ting endre seg og CPU blir mer en flaskehals. Iallefall for 1080p gaming i BF1. Mer testing av flere folk må vel til for å avkrefte eller bekrefte dette når den endelige versonen av spillet er ute. Endret 20. oktober 2016 av Betroz Lenke til kommentar
La Menthe Skrevet 20. oktober 2016 Del Skrevet 20. oktober 2016 (endret) Minimums-FPS var akkurat den forskjellen jeg så, når jeg testet mellom 6600K og 6700K. Selv om den i min mening ikke var vesentlig, kan jeg ikke fornekte for at den var der.Hvorvidt slike ting har utslag på hvor kraftig GPU man har, er det egentlig ingen bevis på (som jeg vet om). Jeg har hørt dette snakket helt siden Keplerseriens dager, da to stk. GTX 680er visstnok skapte flaskehals, med mindre man hadde ekstreme CPUer. Hvordan folk ikke ser at denne påstanden forlengst har gått ut på dato, når det stadig kommer ut nyere og mye kraftigere GPUer, mens prosessorene har stått mer eller mindre stille, er helt utrolig. Tom. dagens GTX 1060 eller RX 480 er ekstreme i ytelse i forhold til GPUer for bare to-tre år tilbake; hvorfor snakker ingen om flaskehals på disse? Eller hva med GTX 1070 og 1080 på laptoper med mobile U-prosessorer; der må vel flaskehalsen være overveldende?Det morsomme er at du mener 1070en ikke ga meg noen flaskehals, men om jeg hadde hatt Titan XP hadde jeg fått det. For 1 år tilbake hadde jeg samme diskusjon med en annen bruker her inne, angående testbenker med GTX 980 og 290X, når vi vurderte forskjellen i ytelse mellom Haswell-E og Skylake. Da mente den personen at det hadde vært bedre å teste med en 980 Ti (som nå tilsvarer en dårligere 1070 i ytelse), for å tvinge fram en eventuell flaskehals. Endret 24. oktober 2016 av La Menthe Lenke til kommentar
Betroz Skrevet 20. oktober 2016 Del Skrevet 20. oktober 2016 Det morsomme er at du mener 1070en ikke ga meg noen flaskehals, men om jeg hadde hatt Titan XP hadde jeg fått det. Poenget mitt var bare at jo kraftigere GPU, jo lettere vil man se om CPU er en flaskehals. Har man et SLI oppsett, så vil CPU bli stresset mer. Lenke til kommentar
bshagen Skrevet 20. oktober 2016 Del Skrevet 20. oktober 2016 Dette kan sees i GTA V faktisk, ved SLI Så problemet eksisterer enda i dag, men hvorvidt det er et reelt problem eller ikke kan vel kanskje diskuteres Lenke til kommentar
Betroz Skrevet 20. oktober 2016 Del Skrevet 20. oktober 2016 Man kjøper liksom ikke en i3 CPU sammen med et Titan XP kort Lenke til kommentar
Dr.Johnsen Skrevet 20. oktober 2016 Del Skrevet 20. oktober 2016 Nå var det lit mye Offtopic her syns jeg Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå