Gå til innhold

Oppgradering av skjermkort


Anbefalte innlegg

Er gira på å kjøpe nytt skjermkort og var fristet til å kjøpe GeForce GTX 1070 Gaming, lurte på om det vil fungere greit med oppsettet jeg har allerde?

 

Kabinett: Cooler Master Silencio 352
Hovedkort: MSI H1
10M PRO-VD Plus

Prosessor: Intel Core i3 6100
Skjermkort: Sapphire Radeon RX 480 Nitro+ 4GB
Minne: 
Corsair Vengeance LPX Black 2133MHz CL13 16GB DDR4

Lagring: Samsung 850 EVO 250GB SSD
Strømforsyning: XFX TS 430W

 

 

Går dette bra for å få smooth grafikk på f.eks BF1?

 

 

Takker for svar :)

 

 

 

Edit: Hehe, skrivefeil i tittel

Endret av morten2211
Lenke til kommentar
Videoannonse
Annonse

 

Edit: Hehe, skrivefeil i tittel

 

 

Ikke viktig, men om andre leser tråden så kan de kanskje få med seg dette tipset:

 

Man kan endre tittelen på tråden ved å velge "rediger" på innlegget. Men man må så i tillegg velge knappen på siden av "Post", der det står "Bruk full editor". I "Full editor" skal det være mulig å endre tittelen også, ikke bare selve innlegget.

 

Ellers er jeg litt usikker på om jeg tror en i7 6700 vil gi deg mye ekstra ut av skjermkortet du allerede har. Målbart? Sikkert, men merkbart? Neppe mye. Det er nå uansett en grei oppgradering for andre CPU intensive oppgaver. Og spill som Civ5/6/Beyond Earth og Rome vil garantert bli overlykkelige over en slik oppgradering. Men om det bare er FPS det går i, så tenker jeg GTX1070 er en litt bedre oppgradering. Det blir jo en litt skjevt balansert PC, med potensielt veldig stor variasjon i fps. Og en Freesync skjerm ville kanskje vært mitt valg før GTX1070 også. Men i gjennomsnittlig fps vil nok GTX1070 være den største oppgraderingen.

 

Men om du går opp til en 4K skjerm, så vil sannsynligvis ikke din nåværende CPU bli noen flaskehals hverken med et GTX1070, eller til og med et GTX1080. Jo høyere oppløsning, desto lavere fps. Og jo lavere fps, desto mindre arbeid for CPU...

Lenke til kommentar

Men om du går opp til en 4K skjerm, så vil sannsynligvis ikke din nåværende CPU bli noen flaskehals hverken med et GTX1070, eller til og med et GTX1080. Jo høyere oppløsning, desto lavere fps. Og jo lavere fps, desto mindre arbeid for CPU...

 

Gir ingen mening. Forklar er du snill.

Lenke til kommentar

 

Men om du går opp til en 4K skjerm, så vil sannsynligvis ikke din nåværende CPU bli noen flaskehals hverken med et GTX1070, eller til og med et GTX1080. Jo høyere oppløsning, desto lavere fps. Og jo lavere fps, desto mindre arbeid for CPU...

Gir ingen mening. Forklar er du snill.

FPS = bilder per sekund. Når FPS går opp så må cpuen behandle mer informasjon (sendt fra grafikkkortet) per sekund også. Høyere oppløsing er bare tyngre for GPUen, cpuen får det derimot lettere jo færre bilder GPUen klarer å levere CPUen. Litt forenklet forklart.

Lenke til kommentar

Jeg vet hva fps betyr :) CPU'en brukes til visse ting i et spill som trengs selv om fps'en går ned. Spillet trenger ikke mindre CPU-kraft selv om oppløsningen går opp og fps'en går ned.

 

Edit; Litt skriveleif

Endret av SlikGårNoDagan
Lenke til kommentar

Jeg vet hva fps betyr :) CPU'en brukes til visse ting i et spill som trengs selv om fps'en går ned. Spillet trenger ikke mindre CPU-kraft selv om oppløsningen går opp og fps'en går ned.

 

Edit; Litt skriveleif

Aka draw calls eksisterer ikke?

 

Cpuen beregner stortsett hvor ting(objekter) er i et spill og håndterer draw calls (med et antall som avhenger helt av hvor mange bilder GPUen klarer å tegne, da ofte målt i antall bilder per sekund. Når GPUen klarer å levere flere bilder per sekund så må automatisk cpuen håndtere et høyere antall draw calls per sekund også.)

 

Det betyr forsåvidt ikke at spill blir mindre cpu avhengig i direkte forstand, men siden man nå har er bottlenecka av GPUen (ihvertfall mye større grad) så skjer det allikevel.

 

 

https://m.reddit.com/r/gamedev/comments/2djgnx/what_are_draw_calls_why_do_you_care_what_makes/?utm_source=mweb_redirect&compact=true Feks

Endret av Blåbjørn
Lenke til kommentar

Igjen takk for alle svar og takk for forklare hvordan jeg redigere tittelen :)

 

Vurdere å bare bestille meg GeForce GTX 1070 samtidig, men lurer på om det kanskje vil være mulig å få noe tilbud på dette på Black Friday eller Cyber Monday, tror dere det er noe veldig med penger å spare?

Endret av morten2211
Lenke til kommentar

Tviler på gode tilbud, har vært dårlig de siste par årene på maskinvare til PC. Men siden du alerede har en god maskin så er det like greit å vente :) En krone her og en krone der.

 

Edit; Ikke det at det har vært 0 å spare, men jeg anser ikke 5-10-15% som godt tilbud da de har slike tilbud rundtomkring hele tiden alikevel. På f.eks. TV'er så har det brått vært 20.000,- i rabatt, si 30-40-50%.

Endret av SlikGårNoDagan
Lenke til kommentar

Igjen takk for alle svar og takk for forklare hvordan jeg redigere tittelen :)

 

Vurdere å bare bestille meg GeForce GTX 1070 samtidig, men lurer på om det kanskje vil være mulig å få noe tilbud på dette på Black Friday eller Cyber Monday, tror dere det er noe veldig med penger å spare?

MRSP på 1070 er 379 $ (det vil si ca 3100 norske) med merverdiavgift blir det ca 3900 etter fortolling.

Det vil si at dette er ca den laveste teoretiske  prisen før nettbutikkene selger med tap. 

Antar nettbutikker vil ha litt overhead for å håntere reklamasjon, arbeidstimer osv også :p

 

Du har f.eks dette kortet fra netonnet for 4190: https://www.netonnet.no/art/datakomponenter/skjermkort/nvidia/asus-geforce-gtx1070-dual-8gb/236135.11111/

 

Husker komplett solgte noen founders editon kort for 4000 på kampanje, er det laveste jeg har sett 1070 kort rent bortsett fra kanskje proshop som har noen for ca samme pris. 

Endret av Blåbjørn
Lenke til kommentar

 

Jeg vet hva fps betyr :) CPU'en brukes til visse ting i et spill som trengs selv om fps'en går ned. Spillet trenger ikke mindre CPU-kraft selv om oppløsningen går opp og fps'en går ned.

 

Edit; Litt skriveleif

Aka draw calls eksisterer ikke?

 

Cpuen beregner stortsett hvor ting(objekter) er i et spill og håndterer draw calls (med et antall som avhenger helt av hvor mange bilder GPUen klarer å tegne, da ofte målt i antall bilder per sekund. Når GPUen klarer å levere flere bilder per sekund så må automatisk cpuen håndtere et høyere antall draw calls per sekund også.)

 

Det betyr forsåvidt ikke at spill blir mindre cpu avhengig i direkte forstand, men siden man nå har er bottlenecka av GPUen (ihvertfall mye større grad) så skjer det allikevel.

 

 

https://m.reddit.com/r/gamedev/comments/2djgnx/what_are_draw_calls_why_do_you_care_what_makes/?utm_source=mweb_redirect&compact=true Feks

 

 

Det er også slik at spillmotoren må ha ny informasjon for å kjøre en ny "runde", ellers blir det bare dobbelt arbeid med samme resultat. Så om skjermkortet ikke har lagd en ny frame, så er det kanskje ingen ny informasjon for spillmotoren å regne på. Og om f.eks AI skal beregnes mellom hver frame, så blir det også mindre arbeid for CPU grunnet færre frames. CPU er vel også involvert i skygger, men det er ikke noe særlig (om noe) tyngre å regne ut en vinkel i 4K enn i 1080p. Så selv om arbeidsmengden for skjermkortet firedobles med en firedobling av oppløsning, så gjelder ikke det samme for CPU'ens oppgaver.

  • Liker 1
Lenke til kommentar

 

Igjen takk for alle svar og takk for forklare hvordan jeg redigere tittelen :)

 

Vurdere å bare bestille meg GeForce GTX 1070 samtidig, men lurer på om det kanskje vil være mulig å få noe tilbud på dette på Black Friday eller Cyber Monday, tror dere det er noe veldig med penger å spare?

MRSP på 1070 er 379 $ (det vil si ca 3100 norske) med merverdiavgift blir det ca 3900 etter fortolling.

Det vil si at dette er ca den laveste teoretiske  prisen før nettbutikkene selger med tap. 

Antar nettbutikker vil ha litt overhead for å håntere reklamasjon, arbeidstimer osv også :p

 

Du har f.eks dette kortet fra netonnet for 4190: https://www.netonnet.no/art/datakomponenter/skjermkort/nvidia/asus-geforce-gtx1070-dual-8gb/236135.11111/

 

Husker komplett solgte noen founders editon kort for 4000 på kampanje, er det laveste jeg har sett 1070 kort rent bortsett fra kanskje proshop som har noen for ca samme pris. 

 

Hva er forskjellen på ASUS sin og denne?

https://www.komplett.no/product/892082/datautstyr/skjermkort/pci-express/msi-geforce-gtx-1070-gaming-x#

Lenke til kommentar

Antok det, men vil det være mye forskjell på ytelsen?

TD:DR: minimalt med litt tweaking. men du har alltids silikonlotteri forskjeller som er umulig å forutse.

 

Vær dog obs på at akkuratt det kortet vissnok ikke har 0 fan speed mode, laveste er vissnok 28%, selv med afterburner custom fan curve,(kilde; en fyr jeg snakked med i går som eide det, så ta det med et gram salt).

 

Lang versjon:

 

Du har out of the box ytelse(som er den du ser på beskrivelsen) , som forsåvidt er ganske uvesentlig da man kan justere denne på 2min i afterburner og ca alle korta klarer (kanskje ikke itx versjonen) å levere like høy clockrate på "akseptabel" temperatur(så lenge man skrur opp viftehastigheten) som det høyeste out of the box korta er klokka til (ca 1850 såvidt jeg husker).

 

Kan selvfølgelig bli litt utrivelig med masse støy om man har en dårlig kjøler, men ytelsen blir sannsynligvis ganske likt fordi.

 

Så kommer ned til støynivå, pcb (powerphases/voltage controller osv), temperatur , plassform osv når man velger mellom de forskjellige versjonene. Kan hende noe har gått meg hus forbi, men pascal er mye mindre temperatur bottlenecket og mer software/voltage limited/bottlenecket enn forrige generasjoner , så selv med superduper kjølere så klarer man ikke å overklokke de beste kjølerne så mye bedre enn billig kjølerne stortsett(man stortsett bare opplevere mindre støy siden viftene ikke trenger å jobbe like mye).

 

Ihvertfall fram til man klarer å disable boost 3.0 i bios. jeg har ikke fått testet denne ASUS Strix biosen f.eks Nizzan og noen andre har fått taki, så vet ikke hvordan det blir med den.

 

Jeg ville vært mindre opptatt av hva slags "merke" ting er og mer interessert hvordan det er laget/pris. Med med mindre du skal overklokke crazy(som fortsatt ikke er mulig, såvidt meg bekjent, fram til man får en custom bios , eller fysisk forandrer/modder på kortene).

I bunn og grunn så er jo alle 1070 gpu brikkene  av nvidia(okey for å¨være pirkete, designet av Nvidia, men alle er laget på samme plass ihvertfall) og produsenter som MSI/GIGBYTE osv lager bare kjølerne og modifisierer PCB (med en god del krav av limits på ting og tang fra Nvidia, som gjør at de ikke kan gå crazy og at forskjellene blir ganske begrenset).

 

Du har dog noen produsenter som "binner" altså finner og reserverer veldig gode chips(silikon lotteri) til de dyreste klassene sine, evga Kingpin, classified osv. Men om du har en produsent som ikke binner chipsa sine , så kan du i teorien(om du er heldig) få en like bra chip som disse. vet heller ikke om de produsentene som binner chips, sjekker absolutt alle chips for bra chips, så kan kanskje hende de "vanlige" chipsa også kan være "superchips" fra f.eks evga. Aner ikke.

Men eneste forskjellen er her at produsenten lover at de kan nå en viss(høy) hastighet. Er samme teknologien osv.

Endret av Blåbjørn
Lenke til kommentar

 

 

Jeg vet hva fps betyr :) CPU'en brukes til visse ting i et spill som trengs selv om fps'en går ned. Spillet trenger ikke mindre CPU-kraft selv om oppløsningen går opp og fps'en går ned.

 

Edit; Litt skriveleif

Aka draw calls eksisterer ikke?

 

Cpuen beregner stortsett hvor ting(objekter) er i et spill og håndterer draw calls (med et antall som avhenger helt av hvor mange bilder GPUen klarer å tegne, da ofte målt i antall bilder per sekund. Når GPUen klarer å levere flere bilder per sekund så må automatisk cpuen håndtere et høyere antall draw calls per sekund også.)

 

Det betyr forsåvidt ikke at spill blir mindre cpu avhengig i direkte forstand, men siden man nå har er bottlenecka av GPUen (ihvertfall mye større grad) så skjer det allikevel.

 

 

https://m.reddit.com/r/gamedev/comments/2djgnx/what_are_draw_calls_why_do_you_care_what_makes/?utm_source=mweb_redirect&compact=true Feks

 

 

Det er også slik at spillmotoren må ha ny informasjon for å kjøre en ny "runde", ellers blir det bare dobbelt arbeid med samme resultat. Så om skjermkortet ikke har lagd en ny frame, så er det kanskje ingen ny informasjon for spillmotoren å regne på. Og om f.eks AI skal beregnes mellom hver frame, så blir det også mindre arbeid for CPU grunnet færre frames. CPU er vel også involvert i skygger, men det er ikke noe særlig (om noe) tyngre å regne ut en vinkel i 4K enn i 1080p. Så selv om arbeidsmengden for skjermkortet firedobles med en firedobling av oppløsning, så gjelder ikke det samme for CPU'ens oppgaver.

 

er enig i alt du sier, untatt det med skygger. er superpirkete av meg da, men det avhenger litt av settings.

F.eks i arma 3 så vil ultra settings gjøre skygger beregnet av GPU(er en kjent tweak for å øke fps siden arma 3 er cpu heavy). mens har man det på medium så er de beregnet av CPU.

Så antar det varierer litt av spill til spill 8) Sier ikke at du tar feil da.

Endret av Blåbjørn
Lenke til kommentar

 

 

 

Det er også slik at spillmotoren må ha ny informasjon for å kjøre en ny "runde", ellers blir det bare dobbelt arbeid med samme resultat. Så om skjermkortet ikke har lagd en ny frame, så er det kanskje ingen ny informasjon for spillmotoren å regne på. Og om f.eks AI skal beregnes mellom hver frame, så blir det også mindre arbeid for CPU grunnet færre frames. CPU er vel også involvert i skygger, men det er ikke noe særlig (om noe) tyngre å regne ut en vinkel i 4K enn i 1080p. Så selv om arbeidsmengden for skjermkortet firedobles med en firedobling av oppløsning, så gjelder ikke det samme for CPU'ens oppgaver.

 

er enig i alt du sier, untatt det med skygger. er superpirkete av meg da, men det avhenger litt av settings.

F.eks i arma 3 så vil ultra settings gjøre skygger beregnet av GPU(er en kjent tweak for å øke fps siden arma 3 er cpu heavy). mens har man det på medium så er de beregnet av CPU.

Så antar det varierer litt av spill til spill 8) Sier ikke at du tar feil da.

 

 

Jeg spiller ikke Arma, så dette trikset var jeg ikke kjent med. Har bare hørt at spillet er forferdelig dårlig optimert. Ihvertfall tidligere. Når det gjelder CPU og skygger, så er jeg av den forståelsen at CPU som regel beregner hvor skyggene skal være. Mens GPU tegner dem opp innenfor disse områdene. Og at dette har med at CPU er bedre egnet til dette som essensielt handler om geometri og ikke "farge legging" av pixler. Om det å flytte det som i utgangspunktet er en CPU jobb over til GPU for å lette på "trykket" på CPU for å få bedre ytelse stemmer. Så taler det virkelig for at Arma er veldig dårlig optimalisert.

  • Liker 1
Lenke til kommentar

 

 

 

 

Det er også slik at spillmotoren må ha ny informasjon for å kjøre en ny "runde", ellers blir det bare dobbelt arbeid med samme resultat. Så om skjermkortet ikke har lagd en ny frame, så er det kanskje ingen ny informasjon for spillmotoren å regne på. Og om f.eks AI skal beregnes mellom hver frame, så blir det også mindre arbeid for CPU grunnet færre frames. CPU er vel også involvert i skygger, men det er ikke noe særlig (om noe) tyngre å regne ut en vinkel i 4K enn i 1080p. Så selv om arbeidsmengden for skjermkortet firedobles med en firedobling av oppløsning, så gjelder ikke det samme for CPU'ens oppgaver.

 

er enig i alt du sier, untatt det med skygger. er superpirkete av meg da, men det avhenger litt av settings.

F.eks i arma 3 så vil ultra settings gjøre skygger beregnet av GPU(er en kjent tweak for å øke fps siden arma 3 er cpu heavy). mens har man det på medium så er de beregnet av CPU.

Så antar det varierer litt av spill til spill 8) Sier ikke at du tar feil da.

 

 

Jeg spiller ikke Arma, så dette trikset var jeg ikke kjent med. Har bare hørt at spillet er forferdelig dårlig optimert. Ihvertfall tidligere. Når det gjelder CPU og skygger, så er jeg av den forståelsen at CPU som regel beregner hvor skyggene skal være. Mens GPU tegner dem opp innenfor disse områdene. Og at dette har med at CPU er bedre egnet til dette som essensielt handler om geometri og ikke "farge legging" av pixler. Om det å flytte det som i utgangspunktet er en CPU jobb over til GPU for å lette på "trykket" på CPU for å få bedre ytelse stemmer. Så taler det virkelig for at Arma er veldig dårlig optimalisert.

 

hehe ja.

 

Bare for å komplisere det videre: 

This is one awkward part of Arma 3. I think this only counts for the ultra and very high setting, but every shadow is calculated by the GPU (soft shadows), except those casted by players/entities and vehicles (stencil shadows). Why that so is? I don't have any clue.

Endret av Blåbjørn
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...