Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

Anbefalte innlegg

Angående the corporal:

 

Om planen hadde vært å bruke iGPU, så gir det mer mening med rask RAM, og ikke minst en nvme SSD med så rask read speed som mulig i henhold til budsjett. Den du har funnet ser veldig grei ut. Men grunnen til at rask RAM ellers er fordelaktig for Ryzen CPU'ene. Er at det er den som bestemmer hastigheten på "Infinity Fabric". Altså bidrar til redusert inter core latency mellom CCX'ene. 2200G har kun en CCX, og derfor gir det ingen ekstra fordel med raskere RAM utover selve minnebåndbredden. Som det altså egentlig bare er iGPU som virkelig har glede av her. Men som du ikke tenker bruke..

 

Det kan også være greit å ha i bakhodet at dette er en maskin som kommer til å forbli "low spec" hele sitt liv. Om man oppgraderer skjermkortet til "High end" om 3 års tid (Vel, idag også for den saks skyld). Kan det godt tenkes at det skjermkortet vil bli strupet godt av 2200G's kun 8 PCIe3.0 baner til GPU.

 

Jeg liker 2200G, men da som en "stepping stone" for folk som virkelig er på budsjett. Det vil si, som benytter iGPU i første omgang som "nødløsning". Og så kanskje oppgraderer til dedikert skjermkort senere, når de får råd. 2200G overklokker bra, spesielt GPU. Og nærmer seg da ytelse mellom GTX1030 og RX550 om jeg ikke husker helt feil i farten..

 

Black Refinery:

 

For folk som vil streame vha. CPU, er 8400 strengt tatt diskvalifisert. Selv med prioritering av stream'en får man på en akseptabel bitrate kun et "slideshow" på publikums siden. Det er ingen som orker å se på noe slikt.

 

Forøvrig er det bare Z370 HK som kan kjøre RAM over 2666MHz på Coffe Lake CPU'ene. Så 3000MHz Kit'et du har funnet, vil kjøre på 2666MHz, men med CL timinger som om det kjørte på 3000MHz. Med mindre det har en XMP profil for 2666MHz med strammere timinger. Sånn sett kunne det nesten vært et artig eksperiment med disse 2400MHz CL12 brikkene. Men nå er det heldigvis/dessverre slik at Intel for det meste ikke er spesielt avhengige av stramme timinger. Så det er ikke sikkert man hadde vært heldig å finne et bruks scenario der det ville hjulpet å ofre 266MHz for 3 knepp ned i CL..

 

Det er uansett ikke akkurat krise med denne lavere hastigheten. Gamers Nexus testet med 2666 vs 3200MHz med GTX1080Ti, og fant i beste fall 5-10% bedre ytelse med 3200MHz. Og Hardware Unboxed gjorde det samme, men fant vel et par spill som fikk enda litt over 10% høyere fps. Men altså med GTX1080Ti. At et 3GB GTX1060 skal være i nærheten av å ha like god nytte tviler jeg sterkt på. Men som sagt, med ditt HK valg er det uansett akademisk..

 

Capital Offence:

 

Her har du vel ikke nevnt streaming som en faktor. Men siden du gjorde det for "Black Refinery" så burde man jo kanskje forvente at "kronjuvelen" burde fikse det? Men 8600K er faktisk for svak til å gjøre det på en akseptabel bitrate den også. Intel ha HT på plass for å klare det..

 

The Alchemist:

 

For streameren er altså "The Alchemist" det naturlige alternativet. Men her er vi i en situasjon der CAS Latency begynner å bli viktig. 3200 CL14 brikker har vist seg å være like raskt og raskere enn 3600 CL16 brikker. Så "The Alchemist" er en fin kandidat for Flare X brikker. Men nå har de dessverre nettopp steget ~300Kr. Som gjør at de nok koster en del mer enn de smaker..

Endret av Gabri3L
  • Liker 3
Lenke til kommentar
  • 2 uker senere...
Videoannonse
Annonse
  • 1 måned senere...

Hey folkens, eg kjøpte Black Rafinery tilbake i september 2015 og tenker no å oppgradere skjermkortet. Eg har alltid fått god hjelp her før, så ville sjekke om noken hadde eit tips.

 

Eg har sett litt på grafikkortet som no er anbefalt på Capital Offense-pakken, Gainward GeForce GTX 1080 Ti Phoenix, men litt usikker på om eg får dra nytte av det om eg ikkje oppgraderar dei andre komponentane også?

 

I tillegg så har eg skjerm med G-synch som eg også har lyst å dra nytte av. Budsjettet ligger på opptil 8000,-

 

CPU - Intel Core i5 4690K 3,5GHz Socket 1150 Box

HK - MSI Z97-G43

GPU - Galax/KFA2 GeForce GTX 970 OC HDMI DP 2xDVI 4GB

RAM - Corsair Vengeance DDR3 PC12800/1600MHz CL9 LP 4x4GB (CML8GX3M2A1600C9)

PSU - Corsair CS550M 550W

SSD - Samsung 850 EVO Series MZ-75E500B 500GB

CASE - Fractal Design Define S
Skjerm - Asus 27" LED G-Sync Rog Swift PG279Q

Lenke til kommentar

 

Hey folkens, eg kjøpte Black Rafinery tilbake i september 2015 og tenker no å oppgradere skjermkortet. Eg har alltid fått god hjelp her før, så ville sjekke om noken hadde eit tips.

 

Eg har sett litt på grafikkortet som no er anbefalt på Capital Offense-pakken, Gainward GeForce GTX 1080 Ti Phoenix, men litt usikker på om eg får dra nytte av det om eg ikkje oppgraderar dei andre komponentane også?

 

I tillegg så har eg skjerm med G-synch som eg også har lyst å dra nytte av. Budsjettet ligger på opptil 8000,-

 

CPU - Intel Core i5 4690K 3,5GHz Socket 1150 Box

HK - MSI Z97-G43

GPU - Galax/KFA2 GeForce GTX 970 OC HDMI DP 2xDVI 4GB

RAM - Corsair Vengeance DDR3 PC12800/1600MHz CL9 LP 4x4GB (CML8GX3M2A1600C9)

PSU - Corsair CS550M 550W

SSD - Samsung 850 EVO Series MZ-75E500B 500GB

CASE - Fractal Design Define S

Skjerm - Asus 27" LED G-Sync Rog Swift PG279Q

 

Om du ikke har noe imot å vente et halvt år vil jeg si at du fint kan dra nytte av 1080ti uten å oppgradere resten av komponentene. 

  • Liker 2
Lenke til kommentar

Hva bør jeg se etter hvis målet er at maskinen skal klare bf5 i 1080p og steady 60 fps?

7700k og 1060 så får du nok 70-80 fps i grei kvalitet 1080p. Kvalifisert gjetning :)

1070, så er man klar for ultrasettings.

 

Bf5 krever nok litt mere cpu enn bf1 igjen, så en 6 kjerner er lurt å ha.

Lenke til kommentar

Er like stor, fordi det er samme spill. Minimumsfps er det som teller, og den vil man jo ha høyest mulig. Ingen tvil om at 100fps føles smoothere enn 60 fps. Har vel noe med motoren å gjøre.

Helt klart at det er minimums FPS som teller. Det er jo når FPS er på det laveste det skjer mye på skjermen, og det er når det skjer mye i spillet at man virkelig trenger den ytelsen man kan få.

 

Jeg har ikke spilt BF1 selv, så jeg visste ikke at CPUen var en så stor flaskehals i det spillet.

Lenke til kommentar

Helt klart at det er minimums FPS som teller. Det er jo når FPS er på det laveste det skjer mye på skjermen, og det er når det skjer mye i spillet at man virkelig trenger den ytelsen man kan få.

 

Jeg har ikke spilt BF1 selv, så jeg visste ikke at CPUen var en så stor flaskehals i det spillet.

Bf1 spiser 4core uten ht til frokost i multiplayer.
Lenke til kommentar

7700k og 1060 så får du nok 70-80 fps i grei kvalitet 1080p. Kvalifisert gjetning :)

1070, så er man klar for ultrasettings.

 

Bf5 krever nok litt mere cpu enn bf1 igjen, så en 6 kjerner er lurt å ha.

 

I BF1 i "mellomsegmentet" GPU, er det AMD som gjør det best, nesten "vesentlig" bedre vil jeg påstå. Et RX580 er ~15% raskere. Altså ~100 fps i stedet for 86,5fps average. Og akkurat dette kortet er på salg hos komplett nå, for 2590 Kr (SE til samme pris er hakket bedre, om man orker fargen og RGB vifter :p), som altså er et par hundrelapper under billigste GTX1060 (Et ITX kort) man kan oppdrive. Kjøpte selv ROG versjonen i formiddag, da var det 40 stk. på lager, nå er den versjonen utsolgt...

Lenke til kommentar

I BF1 i "mellomsegmentet" GPU, er det AMD som gjør det best, nesten "vesentlig" bedre vil jeg påstå. Et RX580 er ~15% raskere. Altså ~100 fps i stedet for 86,5fps average. Og akkurat dette kortet er på salg hos komplett nå, for 2590 Kr (SE til samme pris er hakket bedre, om man orker fargen og RGB vifter :p), som altså er et par hundrelapper under billigste GTX1060 (Et ITX kort) man kan oppdrive. Kjøpte selv ROG versjonen i formiddag, da var det 40 stk. på lager, nå er den versjonen utsolgt...

Til kun bf1, så er amdkorta meget bra. De elsker frostbite motoren.

 

"Når man må kjøpe ekstra stor strømforsyning, så kunne man nesten kjøpt 1070 i stedet for samme prisen :p 580 trekker godt med strøm :D "

 

I spill bruker 580 ca 100w mere enn 1060.

Endret av Nizzen
Lenke til kommentar

Til kun bf1, så er amdkorta meget bra. De elsker frostbite motoren.

 

"Når man må kjøpe ekstra stor strømforsyning, så kunne man nesten kjøpt 1070 i stedet for samme prisen :p 580 trekker godt med strøm :D "

 

 

Hm? Er det meg du siterer der? Du er vel ikke så frekk å bruke mine egne ord i mot meg?! :p

 

Men uansett, det er nå ikke rare forskjellen i pris på en 550W og en 650W PSU. Men det er merkelig det der, folk synes å være helt "oppslukt" av å ikke "kaste bort" unødvendige hundrelapper på PSU (men betaler gladelig de samme hundrelappene for RGB på en musmatte! :p).

 

Det som er greia, er at vi vet ikke hvilken vei det går med strømforbruket. Vi er på 16nm produksjon nå. Og oppe i ~2000MHz på GPU. Om en generasjon eller to kan det tenkes at vi må ha større PSU uansett. Selv om jeg selv skulle handlet en maskin med f.eks GTX1070 i dag, og fint kunne klart meg med ~450W PSU, ville jeg aldri spinket på akkurat den. 750W minst, er tommelfinger regelen min...

Lenke til kommentar

Forøvrig er "Polaris" egentlig en ganske strøm effektiv arkitektur... Bare ikke på de frekvensene de ble tvunget opp i for å matche Pascal ytelse. Men man kan gjøre ganske mye med strømforbruket med kombinasjon av undervolting og "iChill", og til en viss grad Freesync.

 

Nå vil jeg ellers normalt ikke bruke slikt som argument for AMD, da det er litt for "viderekommende" å ta dette i bruk. Ved "Plug and play" er åpenbart pascal snillere på strømforbruk. Jeg bare har med årene endret litt oppfatning når det kommer til viktigheten av disse siste Watt'ene. Som jeg sa i en annen tråd, men kan bruke meg selv som eksempel i stedet denne gangen ;) ; Jeg brukt jo "nettopp" en maskin med 2 x 980Ti SLI, litt overklokket. Så rundt 600W til skjermkortene alene. hva skal det liksom bry meg da, om et skjermkort bruker 120W, eller 220W?...

 

Når det gjelder Tek pressens rapportering av strømforbruk, så har den også dessverre visse mangler, som potensielt tegner et litt styggere bilde for AMD, enn hva som strengt tatt er nødvendig/rettferdig. Det har med forskjellene i arkitektur å gjøre. Og når vi ser GTX1060 trekker like mye strøm under gaming som under Furmark, så er det absolutt et testament til svært svært effektivt design. Men når man så tester RX 580 på samme måte, så blir det litt urettferdig, fordi den har så mange flere shadere, at til nettopp Furmark, blir det urealistisk. Hva hadde skjedd med effektivitets tallet om de i stedet hadde rapportert Furmark Watt/fps? Et totalt uinteressant tall riktignok... Men det er strengt tatt strømforbruket under Furmark også. Det er en stresstest for å sjekke stabilitet, og lite annet.

 

Hardware Unboxed pleide faktisk å oppgi strømforbruket som gjennomsnitt av forbruket ved alle spillene i testen. Et mye mer realistisk og rettferdig scenario. Men det ble visst for mye arbeid, så de har gått bort fra det nå. Slik jeg ser det nå, så virker det nesten mer som en måte å kåre en vinner på, enn å egentlig ha stor "real world" verdi. For når det skiller +/- 5% i gjennomsnittlig fps over ~30 spill (i RX 580's favør vel og merke ;) ), så  blir forskjellen tydeligere ved å legge til forskjellen i effekt forbruk. Men som sagt; til syvende og sist, hva har det å si? Man kjøper 100W større PSU enn ellers, og sparer et par tusenlapper på adaptive sync. ;)

Lenke til kommentar

550w gold er vel greit på rx580?

 

Det kommer vel an på hva annet du har i maskinen. Om du skal oppgradere til RX 580, og har 550W fra før, så er det ett spørsmål. Det kan tenkes å gå fint. Men personlig ville jeg som sagt kjøpt minst 750W, men det hadde gjeldt om jeg skulle hatt et GTX1060 også. Men ikke alle oppgraderer. Og da trenger de jo ikke større PSU enn hva som er nødvendig "her og nå" heller...

Endret av Gabri3L
Lenke til kommentar

Forøvrig er "Polaris" egentlig en ganske strøm effektiv arkitektur... Bare ikke på de frekvensene de ble tvunget opp i for å matche Pascal ytelse.

Har du lest tester etc av Asus GL702ZC? Der kjører et 580-kort med en tdp på ca 65W ifølge de som har testa. MGz er låst til 1077. Ytelsesmesssig er et mobilt 1060 6gb-kort ca 10% raskere, men det bruker ca 20% mer strøm. Ifølge de siste testene jeg har sett av 580 på hwub så ligger det ytelsesmessig litt foran 1060 6gb. Med en liten underklokk og undervolt kan man uten problemer matche tdp med en ytelse marginalt under 1060 6gb.

Lenke til kommentar

Har du lest tester etc av Asus GL702ZC? 

 

Nei, det har jeg ikke. Men før "Polaris" kortene ble lansert fartet AMD rundt på messer med en demo maskin tilkoplet Watt måler, og sammenliknet med en identisk PC med Nvidia skjermkort i stedet. Var jo Maxwell de sammenliknet mot da, og husker ikke helt hva de testet mot, men de viste nå tilsynelatende ganske mye bedre ytelse per Watt enn Maxwell. I prosent i hvertfall. Dette var ganske langt nede i effekt bruk. Som sagt husker jeg ikke i farten, men om det var ~70, eller ~170W for hele maskinen eller noe slikt...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...