Gå til innhold

Test: Asus GeForce GTX 680 DirectCU II 4 GB


Anbefalte innlegg

Disse testene på hw er ubrukelige, så lenge utdaterte drivere blir brukt på både nvidia og amd.

 

Driverne som blir brukt til bla amd kortene er mellom 6 og 10 mnd gamle :nei2:

Skjønner ikke at dere gidder...

 

Greia er at en ikke kan kjøre en full testsuite på ALLE skjermkortene hver bidige gang det dukker opp en ny driver. Skal en kunne kjøre sammenligninger på tvers av kort må nesten driveren være lik. Selvsagt blir det et problem hvis driveren mangler OK støtte for skjermkortet som testes, men alternativet er ikke så mye bedre - med mindre kravet til en slik anmeldelse er å utelukkende sammenligne med de to-tre andre kortene som er testet med det som PDD er de aller ferskeste driverne. ("kortet yter bra, men vi kan ikke sammenligne det med noen andre kort" er vel en heller laber konklusjon, eller hva?)

 

Det en kunne gjort er å kjøre en eller to av disse testene med den nyeste driveren, og så se om den gir en solid boost ift den eldre. Det er muligens et brukbart kompromiss.

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

Her er jeg totalt uenig med deg Knopflerbruce, en skjermkorttest skal da naturligvis bruke de siste tilgjengelige driverne for hele test riggen for å gi et korrekt og realistisk bilde av hva skjermkortet kan gi av forventet ytelse per dags dato.

 

Hvorvidt det ødelegger muligheten for direkte sammenligning med referanse kort og andre modeller som da ble logisk nok ble testet med eldre drivere for så være, slike ting må man nesten ta høyde for da det er naturlig at driverne modnes og blir bedre over tid.

 

 

Hadde dette vært en ultimat test og sammenligning av skjermkort a, b, c, og e så må man naturligvis sørge for at alle skjermkortene stiller på like vilkår så det ikke blir en urettferdig sammenligning som kan gi et skjevt bilde av hvordan de forskjellige kortene i sammenligningen oppfører seg opp imot hverandre.

 

Dette er dog en test av et gitt GTX 680 kort, og vi som leser tester ønsker da stort sett å vite hva vi kan forvente av nettopp dette skjermkortet med dagens drivere, uten øvrige flaskehalser på testsystemet. Det tviholde på gamle drivere gir overhode ingen mening om du spør meg.

  • Liker 3
Lenke til kommentar

Hva med dette kompromisset: På samme måte som man kan vise stock og overklokket versjon av en CPU eller GPU i samme diagram for å vise ytelsesøkningen kan man også teste nye skjermkort med en standard driver som oppdateres si hvert halvår eller kvartal, og også med den nyeste driveren, man får da mulighet til å se en side-ved-side sammenligning av hvordan situasjonen var, og hvordan ytelsen er med de nyeste driverene. Det krever bare at kortet som testes kjøres med 2 drivere.

 

Om HW.no hadde gjort som Anandtech og laget en database vi kunne søkt i etter benchmark data kunne vi da også hatt som mulighet å velge mellom standard driveren eller den nyeste driveren (selv om den nyeste var av to foskjellige versjoner) for to skjermkort om vi vil sammenligne dem ut over hva som står i testene.

 

EDIT: som noen nevnte tidligere kan en 2600k ved stock være en flaskehals for fps ved lave oppløsninger (eller grafikkinstillinger). IMHO burde den vært overklokket til en plass mellom 4.0 og 4.5GHz for å bedre vise hva skjermkortene er i stand til. Og kanskje også gått for litt høyere klokket RAM enn 1600MHz, som muligens kjører med CL9.

Endret av GullLars
  • Liker 2
Lenke til kommentar

Da jeg leste testen kom jeg til å tenke på driverne fra Nvidia som kom rett før jul og hvor mye feil det var på de. Den kræsjet systemet mitt i flere spill og ytelsen var bare ræl - om det skal gjengies i en test hvor man benchmarker så ville jeg vært mest interessert i å lese denne testen på nytt hvis det er slik at testen har brukt utdaterte drivere, eller drivere med feil. Det blir jo ikke beskrivende for hvordan jeg ville opplevd kortet på mitt system, jeg ville natruligvis brukt en driver som fungerer :)

 

Enig med RamGuy

Lenke til kommentar

Her er jeg totalt uenig med deg Knopflerbruce, en skjermkorttest skal da naturligvis bruke de siste tilgjengelige driverne for hele test riggen for å gi et korrekt og realistisk bilde av hva skjermkortet kan gi av forventet ytelse per dags dato.

 

Hvorvidt det ødelegger muligheten for direkte sammenligning med referanse kort og andre modeller som da ble logisk nok ble testet med eldre drivere for så være, slike ting må man nesten ta høyde for da det er naturlig at driverne modnes og blir bedre over tid.

 

 

Hadde dette vært en ultimat test og sammenligning av skjermkort a, b, c, og e så må man naturligvis sørge for at alle skjermkortene stiller på like vilkår så det ikke blir en urettferdig sammenligning som kan gi et skjevt bilde av hvordan de forskjellige kortene i sammenligningen oppfører seg opp imot hverandre.

 

Dette er dog en test av et gitt GTX 680 kort, og vi som leser tester ønsker da stort sett å vite hva vi kan forvente av nettopp dette skjermkortet med dagens drivere, uten øvrige flaskehalser på testsystemet. Det tviholde på gamle drivere gir overhode ingen mening om du spør meg.

 

Vi er ikke så uenige som det høres ut som, egentlig - det er bare et spørsmål om hva en vektlegger, siden vi nok er enige om at det er vrient å få både i pose og sekk uten å bruke enormt med ressurser.

 

Problemet er jo hva en kan trekke ift konklusjoner uten å ha et godt sammenligningsgrunnlag (f.eks. samme driver). I ytterste konsekvens sitter en der uten å kunne si noe mer enn at kortet har nok kraft til å kjøre spill a,b og c på gitte oppløsninger med tilhørende sett eyecandy. Da får en - som du korrekt påpeker - et godt og presist bilde av den ytelsen en bruker som kjøper kortet "nå" vil få, men om kortet er et godt kjøp sammenlignet med andre kort vil være umulig å si noe om, utover en slags kvalifisert gjetning/magefølelse siden en særs viktig testparameter ikke holdes konstant.

 

Hvis disse testene skal legge vekt på sammenligninger må dermed driveren være den samme. Er målet å si hvorvidt kortet i skrivende stund gir spillbar FPS i ulike spill med ulike innstillinger, så er det korrekt å alltid kjøre med den driveren som gir best ytelse.

 

Rent personlig foretrekker jeg sammenligningstester, men har full forståelse for at andre kan mene noe annet.

Lenke til kommentar

BF3 average ligger omtrent på 80, så den stemmer.

Det som ikke stemmer er å kalle maksimalmålninger for minimumsmålninger.

Tenkte det var en skrivefeil jeg bare :) Min ble til avg. og avg. ble til min. Men om de har starta med maksmålinger og, så stemmer nå iallefall én av dem :)

Lenke til kommentar

Dette var vagt HW.

 

Performance Boost (310.70 WHQL) - Increases performance for GeForce 400/500/600 Series GPUs in several PC games vs. GeForce 306.97 WHQL drivers. Results will vary depending on your GPU and system configuration:

 

GeForce GTX 680:

 

Up to 38% in Far Cry 3

Up to 26% in Call of Duty: Black Ops 2

Up to 16% in Battlefield 3

Up to 18% in Assassin's Creed III

Up to 9% in The Elder Scrolls V: Skyrim

Up to 6% in Medal of Honor: Warfighter

Up to 6% in StarCraft II

Up to 6% in Dragon Age II

Up to 6% in Batman: Arkham City

Up to 5% in S.T.A.L.K.E.R.: Call of Pripyat

Endret av Bentus
Lenke til kommentar

Dette var vagt HW.

 

Performance Boost (310.70 WHQL) - Increases performance for GeForce 400/500/600 Series GPUs in several PC games vs. GeForce 306.97 WHQL drivers. Results will vary depending on your GPU and system configuration:

 

GeForce GTX 680:

 

Up to 38% in Far Cry 3

Up to 26% in Call of Duty: Black Ops 2

Up to 16% in Battlefield 3

Up to 18% in Assassin's Creed III

Up to 9% in The Elder Scrolls V: Skyrim

Up to 6% in Medal of Honor: Warfighter

Up to 6% in StarCraft II

Up to 6% in Dragon Age II

Up to 6% in Batman: Arkham City

Up to 5% in S.T.A.L.K.E.R.: Call of Pripyat

 

Det er vel og bra, men disse tallene vil jo påvirke referansekortet like mye som dagens testkort. Og når dagens testkort ligger til dels betydelig bak referansekortet..

 

Nei, feilen må nok være noe annet. Svak prosessor blir også nevnt, men sålenge også referansekortet ble testet med samme prosessor så burde tallene i større grad være lik mellom disse to kortene.

 

Om ikke Asus da har lagt inn en helt annen profil på dette kortet for å få ned forbruk, støy og varme. Det er en mulig løsning, og en helt grei en for mange. Siden kortet i veldig mange tilfeller vil yte mer enn nok uansett, så kan dem på den måten levere mindre støy. Det burde isåfall ha kommet bedre fram i spesifikasjoner, navngivning og/eller markedsføring av kortet.

 

 

Når det er sagt, så synes jeg, i likhet med mange av dere andre her, at testen i seg selv virker som en hastejobb. Det er ikke sagt et ord om overklokking f.eks. Derimot så har man hengt seg opp i at kjøleren ikke viser kobber.. Ordene "super", "monster" o.l. går igjen hele tiden. Kortet gafler i seg strøm? Nei, kortet bruker faktisk ganske like strøm, sammenlignet med en del andre kort. Kjører for fulle mugger? Hadde det ikke vært bedre å heller si at kortet kjører med maksimal belastning?

 

Skal det være et humorshow gjengitt som tekst, eller en seriøs produkttest? Når kom Metro og Crysis Warhead ut? Kalenderen min sier 2013 om bare få dager.. Og hvorfor viser grafene resultatene fra 1920x1200 testen? Man kjøper ikke et GTX 680 4GB for å teste i 1920x1200.. Det ville vært mye mer relevant å vise høyere oppløsning.

 

Nei, trekk tilbake testen og gjør hele greia på nytt. Prøv å ikke bruke vg.no og db.no som referanse når man skriver. Prøv heller å få fram viktig og relevant informasjon. Monster, mega, superduper, gafler, fulle mugger osv får vi nok av andre plasser.

  • Liker 4
Lenke til kommentar

Det er vel og bra, men disse tallene vil jo påvirke referansekortet like mye som dagens testkort. Og når dagens testkort ligger til dels betydelig bak referansekortet..

 

Nei, feilen må nok være noe annet. Svak prosessor blir også nevnt, men sålenge også referansekortet ble testet med samme prosessor så burde tallene i større grad være lik mellom disse to kortene.

 

Om ikke Asus da har lagt inn en helt annen profil på dette kortet for å få ned forbruk, støy og varme. Det er en mulig løsning, og en helt grei en for mange. Siden kortet i veldig mange tilfeller vil yte mer enn nok uansett, så kan dem på den måten levere mindre støy. Det burde isåfall ha kommet bedre fram i spesifikasjoner, navngivning og/eller markedsføring av kortet.

 

 

Når det er sagt, så synes jeg, i likhet med mange av dere andre her, at testen i seg selv virker som en hastejobb. Det er ikke sagt et ord om overklokking f.eks. Derimot så har man hengt seg opp i at kjøleren ikke viser kobber.. Ordene "super", "monster" o.l. går igjen hele tiden. Kortet gafler i seg strøm? Nei, kortet bruker faktisk ganske like strøm, sammenlignet med en del andre kort. Kjører for fulle mugger? Hadde det ikke vært bedre å heller si at kortet kjører med maksimal belastning?

 

Skal det være et humorshow gjengitt som tekst, eller en seriøs produkttest? Når kom Metro og Crysis Warhead ut? Kalenderen min sier 2013 om bare få dager.. Og hvorfor viser grafene resultatene fra 1920x1200 testen? Man kjøper ikke et GTX 680 4GB for å teste i 1920x1200.. Det ville vært mye mer relevant å vise høyere oppløsning.

 

Nei, trekk tilbake testen og gjør hele greia på nytt. Prøv å ikke bruke vg.no og db.no som referanse når man skriver. Prøv heller å få fram viktig og relevant informasjon. Monster, mega, superduper, gafler, fulle mugger osv får vi nok av andre plasser.

 

Det er tall fra nvidia-referanse kortet og tallene er fra nvidia på driver siden.

 

På Asus sin side så skal det være samme type kort bare med 2GB Ram forskjell. Men det ene kortet (2GB) har 2 strømkontakter 6+8pin, og det andre (4GB) har 1 strømkontakt 6pin. Pluss har 2GB versjonen 3 slots kjøling og 4GB versjonen 2 slots kjøling. Wierd shit......

 

GTX680 2GB Version

 

GTX680 4GB Version

 

Og jeg lurer på hvorfor de bruker en Dell 30" skjerm og tester det på 1920x1080 oppløsning for????

Og et eldre/gammelt hovedkort (P67) med pci-express 2 og ikke 3? Og ja en eldre driver som har mye å si på tester, spesielt gtx680 fronten...

Lenke til kommentar

Helt enig i at det var lave resultater, det er også litt for stort sprang opp til stock GTX 680 for å skylde på Kepler Boost.

Uansett er hele testsuiten utdatert til en slik grad at CPU flaskehalser i de fleste testene, når HW.no ikke gidder å teste med maksimale innstillinger engang er det ikke rart slikt skjer.

 

4K-ytelse?

http://www.computerb...it-i7-3970x/13/

2560x1600 @ 4xSSAA er omtrent tilsvarende 4K @ 2xSSAA, ikke utrolig om disse kortene hadde klart å levere ganske akseptabel ytelse i dagens spill kjørende i "Ultra HD" om man var villig til å ofre MSAA og litt annen eyecandy.

 

Ser nok ut til at jeg må bytte ut systemet om jeg skal få en smooth 4k opplevelse, får vente å se.

Lenke til kommentar

Dette er dog en test av et gitt GTX 680 kort, og vi som leser tester ønsker da stort sett å vite hva vi kan forvente av nettopp dette skjermkortet med dagens drivere, uten øvrige flaskehalser på testsystemet. Det tviholde på gamle drivere gir overhode ingen mening om du spør meg.

 

Dette er det delte meninger om, så mener bestemt at man burde klare å fore begge synspunktene med gyldige tall. Er noen testrunder ekstra, men ville gjort testen mer solid.

 

Hva med dette kompromisset: På samme måte som man kan vise stock og overklokket versjon av en CPU eller GPU i samme diagram for å vise ytelsesøkningen kan man også teste nye skjermkort med en standard driver som oppdateres si hvert halvår eller kvartal, og også med den nyeste driveren, man får da mulighet til å se en side-ved-side sammenligning av hvordan situasjonen var, og hvordan ytelsen er med de nyeste driverene. Det krever bare at kortet som testes kjøres med 2 drivere.

 

Om HW.no hadde gjort som Anandtech og laget en database vi kunne søkt i etter benchmark data kunne vi da også hatt som mulighet å velge mellom standard driveren eller den nyeste driveren (selv om den nyeste var av to foskjellige versjoner) for to skjermkort om vi vil sammenligne dem ut over hva som står i testene.

 

EDIT: som noen nevnte tidligere kan en 2600k ved stock være en flaskehals for fps ved lave oppløsninger (eller grafikkinstillinger). IMHO burde den vært overklokket til en plass mellom 4.0 og 4.5GHz for å bedre vise hva skjermkortene er i stand til. Og kanskje også gått for litt høyere klokket RAM enn 1600MHz, som muligens kjører med CL9.

 

De har gått til innkjøp av referansekortet vil jeg tro, så da burde det være greit å ha 2 forskjellige image. Ett med standard driver, og et som oppdateres med aller siste driver. Kjører du denne på både referansekortet og kortet til test, så får du målinger med den mest korrekte driveren og derved testet med "dagens ytelse", samtidig som de ivaretar behovet for å sammenligne kort testet lengre bak i tid med en driver som er satt som referansedriver. Man får samtidig sett hvor mye forskjell det er på nyeste vs referansedriveren, så kan man selv vurdere hvor mye bedre et "eldre" skjermkort gjør med siste driver "innabords".

 

Det du skriver i det siste avsnittet, må vel være feil? Det er vel med høyere (mer krevende) oppløsninger at CPU kan bli flaskehals. Ellers leste jeg nylig en test av nyeste i7, og der var det ihvertfall tydelig at 2600K er mer enn kapabel i spill, mens den hangler noe etter på andre bruksområder. Tror derfor kritikken på at de bruker denne CPUen er litt å skyte på feil skive.

 

Og jeg lurer på hvorfor de bruker en Dell 30" skjerm og tester det på 1920x1080 oppløsning for????

Og et eldre/gammelt hovedkort (P67) med pci-express 2 og ikke 3? Og ja en eldre driver som har mye å si på tester, spesielt gtx680 fronten...

 

Er vel flertallet som kjører FullHD (1920x1080), og et mindretall som kjører enda høyere oppløsninger. Så at man tester med den mest brukte (eller nærmeste tilsvarende) oppløsningen ser jeg ikke på som feil med det utgangspunktet. Her tester de riktignok med flere oppløsninger, så man kan få et mer realistisk bilde av hva man selv kan forvente i den oppløsningen man kjører.PCI-E 2 vs 3 gjetter jeg på er fordi det er det de tidligere kortene ble testet mot. Har ikke sett tall på det, men er det i praksis så stor forskjell på 2 vs 3? Regner med det er mer aktuelt med raskeste utgaven når man kjører flere GPU'er på samme HK, men det kan flere sikkert svare på.

 

Edit: Siste quote kom 2x, så fjernet den ene.

Endret av Snowleopard
Lenke til kommentar

Helt enig i at det var lave resultater, det er også litt for stort sprang opp til stock GTX 680 for å skylde på Kepler Boost.

Uansett er hele testsuiten utdatert til en slik grad at CPU flaskehalser i de fleste testene, når HW.no ikke gidder å teste med maksimale innstillinger engang er det ikke rart slikt skjer.

 

4K-ytelse?

http://www.computerb...it-i7-3970x/13/

2560x1600 @ 4xSSAA er omtrent tilsvarende 4K @ 2xSSAA, ikke utrolig om disse kortene hadde klart å levere ganske akseptabel ytelse i dagens spill kjørende i "Ultra HD" om man var villig til å ofre MSAA og litt annen eyecandy.

 

ok det er helt rått. gleder meg til bedre skjermer kommer da ass! :) men film går vel så bra selv på midrange kort at oppgradering er poengløst ikke sant?

Lenke til kommentar

Det du skriver i det siste avsnittet, må vel være feil? Det er vel med høyere (mer krevende) oppløsninger at CPU kan bli flaskehals. Ellers leste jeg nylig en test av nyeste i7, og der var det ihvertfall tydelig at 2600K er mer enn kapabel i spill, mens den hangler noe etter på andre bruksområder. Tror derfor kritikken på at de bruker denne CPUen er litt å skyte på feil skive.

 

 

 

Er vel flertallet som kjører FullHD (1920x1080), og et mindretall som kjører enda høyere oppløsninger. Så at man tester med den mest brukte (eller nærmeste tilsvarende) oppløsningen ser jeg ikke på som feil med det utgangspunktet. Her tester de riktignok med flere oppløsninger, så man kan få et mer realistisk bilde av hva man selv kan forvente i den oppløsningen man kjører.PCI-E 2 vs 3 gjetter jeg på er fordi det er det de tidligere kortene ble testet mot. Har ikke sett tall på det, men er det i praksis så stor forskjell på 2 vs 3? Regner med det er mer aktuelt med raskeste utgaven når man kjører flere GPU'er på samme HK, men det kan flere sikkert svare på.

En 2600k er mer enn kapabel til de fleste spill, og det er helt klart ettersom framerate i alle tester ligger godt over 60, problemet her er at høyere framerate krever eksponensielt kraftigere prosessor. Du ser veldig mange av grafikkortene (680, 7970 GHz, 7970 MATRIX, og dette) stanger opp mot en vegg, mest av alt fordi HW.no har valgt å gå for "høye" innstillinger framfor de tyngste, det fører igjen til at skillet mellom stock 680/7970GHz og fabrikkoverklokkede varianter ser mindre ut enn det faktisk er i praksis.

 

Flertallet kjører Full HD ja, problemet er igjen at de testene de bruker er i svært liten grad belastende for dagens kort som fører til unormalt små variasjoner i framerate med høyere oppløsning. Med dagens testinnstillinger hadde det gitt et bedre bilde av å legge opp sammenligningsgrafene fra 2560x1600 enn 1920x1200, uansett om AMD-kortene skalerer bedre med høyere oppløsninger eller ikke.

Lenke til kommentar

En 2600k er mer enn kapabel til de fleste spill, og det er helt klart ettersom framerate i alle tester ligger godt over 60, problemet her er at høyere framerate krever eksponensielt kraftigere prosessor. Du ser veldig mange av grafikkortene (680, 7970 GHz, 7970 MATRIX, og dette) stanger opp mot en vegg, mest av alt fordi HW.no har valgt å gå for "høye" innstillinger framfor de tyngste, det fører igjen til at skillet mellom stock 680/7970GHz og fabrikkoverklokkede varianter ser mindre ut enn det faktisk er i praksis.

 

Flertallet kjører Full HD ja, problemet er igjen at de testene de bruker er i svært liten grad belastende for dagens kort som fører til unormalt små variasjoner i framerate med høyere oppløsning. Med dagens testinnstillinger hadde det gitt et bedre bilde av å legge opp sammenligningsgrafene fra 2560x1600 enn 1920x1200, uansett om AMD-kortene skalerer bedre med høyere oppløsninger eller ikke.

 

Til første avsnittet, så var det testet med heftige skjermkort, men med forskjellige CPU'er. Altså testet de forskjell på ytelse basert på forskjell i CPU-kraft. I spilldelen var framerate selvsagt litt forskjellig, men i bunn og grunn så var forskjellene så små, og alt kjørte +60 frames, slik at det selv med full spiker var silkeglatt, selv med A-series prosessorer fra AMD, som betegnes som svakere enn alt av Intel i5.

 

Jeg skal ikke snakke om innstillingene som var valgt, men om jeg forstår det riktig, så er det å sette på max på alt av "eyecandy" relativt krevende. Tviler på at det blir mer krevende å sette lavere innstillinger, men du kan kanskje utdype hva du mener er feil med innstillingene de velger å sette på.

 

Til det andre avsnittet, så synes jeg det er riktig av HW å teste i flere oppløsninger, så kan man selv avgjøre hva som er "tilstrekkelig" å satse på i forhold til den oppløsningen man kan kjøre på. Om man ikke kan sette alt på maks, men likevel få det spillbart uten særlig tap i frames, så er dette et greit kompromiss å gjøre, om man da kan klare seg med et skjermkort til 1500ish mot å legge i 3000,- eller over for å sikre seg, når det kanskje er andre ting som skaper flaskehalser.

 

Å f.eks. betale seg opp i7 2600K (komplettpris 2400,-) mot at man klarer seg med et 7870 eller GTX 660 (Fant et av hvert til 1795,-), fremfor å kjøpe 7970/670 (3500,-) men måtte nøye seg med en FX-8150 eller i5-3350P (begge til 1349,-) vil for flere være et meget ok kompromiss. Alternativt, selv om det ikke påvirker i spill annet enn loading, kan prisforskjellen gjøre at man kjøper seg en 256GB SSD fremfor snurredisk, eller i tillegg til...

 

Edit: svaret mitt ble postet mens jeg hoppet litt frem og tilbake mellom komplett og HW, så noe av teksten kom ikke med...

Endret av Snowleopard
Lenke til kommentar

Til første avsnittet, så var det testet med heftige skjermkort, men med forskjellige CPU'er. Altså testet de forskjell på ytelse basert på forskjell i CPU-kraft. I spilldelen var framerate selvsagt litt forskjellig, men i bunn og grunn så var forskjellene så små, og alt kjørte +60 frames, slik at det selv med full spiker var silkeglatt, selv med A-series prosessorer fra AMD, som betegnes som svakere enn alt av Intel i5.

 

Jeg skal ikke snakke om innstillingene som var valgt, men om jeg forstår det riktig, så er det å sette på max på alt av "eyecandy" relativt krevende. Tviler på at det blir mer krevende å sette lavere innstillinger, men du kan kanskje utdype hva du mener er feil med innstillingene de velger å sette på.

 

Til det andre avsnittet, så synes jeg det er riktig av HW å teste i flere oppløsninger, så kan man selv avgjøre hva som er "tilstrekkelig" å satse på i forhold til den oppløsningen man kan kjøre på. Om man ikke kan sette alt på maks, men likevel få det spillbart uten særlig tap i frames, så er dette et greit kompromiss å gjøre, om man da kan klare seg med et skjermkort til 1500ish mot å legge i 3000,- eller over for å sikre seg, når det kanskje er andre ting som skaper flaskehalser.

 

Å f.eks. betale seg opp i7 2600K (komplettpris 2400,-) mot at man klarer seg med et 7870 eller GTX 660 (Fant et av hvert til 1795,-), fremfor å kjøpe 7970/670 (3500,-) men måtte nøye seg med en FX-8150 eller i5-3350P (begge til 1349,-) vil for flere være et meget ok kompromiss. Alternativt, selv om det ikke påvirker i spill annet enn loading, kan prisforskjellen gjøre at man kjøper seg en 256GB SSD fremfor snurredisk, eller i tillegg til...

 

Edit: svaret mitt ble postet mens jeg hoppet litt frem og tilbake mellom komplett og HW, så noe av teksten kom ikke med...

OK, her er en kort forklaring av hvordan flaskehalsene jeg snakker om fungerer

En gitt prosessor klarer å levere 90 fps gjennomsnittlig i WARHEAD på gamer-kvalitet med 'uendelig' grafikkytelse

Et gitt skjermkort (1) klarer å levere gjennomsnittlig 120 fps i WARHEAD på gamer-kvalitet i 1080p, men bare 70 fps i 2560x1600, her antar vi uendelig prosessorytelse.

I 1080p blir da frameraten rundt 80 fps, fordi CPU er en flaskehals og det er enkelte scener der skjermkortet leverer mindre enn 80 fps

I 2560x1600 blir framerate rundt 60 fps.

 

Nå legger vi et nytt skjermkort (2) på testbenken, dette klarer egentlig 180 fps i WARHEAD på 'gamer' 1080p og 110 fps på 2560x1600

I 1080p blir framerate rundt 85 fps siden skjermkortet fortsatt har tilfeller der det ikke helt klarer å levere mer enn prosessoren på alle steder, men prosessoren er nå en enorm flaskehals.

I 2560x1600 blir framerate rundt 80 fps, det samme som skjedde på 1080p skjer her også, men det er flere ganger skjermkortet sliter og gjennomsnittlig framerate når ikke helt opp til samme nivå.

Dette er situasjonen for nesten alle testene til Hardware.no for øyeblikket.

 

 

WARHEAD har en setting kalt 'Enthusiast' og kan kjøres opp til 8xMSAA som er nærmere 200% tyngre for skjermkortet, men like tungt for CPU, om man hadde brukt den hadde ikke en 2600k vært i nærheten av like stor flaskehals og det hadde vært mulig å vise at skjermkort 2 faktisk er godt og vel 50% raskere enn det skjermkort 1 i denne testen.

 

Jeg syns også det er riktig å teste i flere oppløsninger, men når man får sånne flaskehalser som Hardware.no sitter med i dag fordi spillutvalget er eldgamle spill som knapt krever noe som helst blir testen veldig misvisende. Det hjelper heller ikke at forskjellige kort testes med forskjellige drivere.

 

Det virker også som du tror at disse testene er ment å gi et inntrykk av hvordan de vil være i bruk, det er også helt feil. Disse testene er lagt opp for å vise hvilket skjermkort som gir høyest framerate i de mest krevende situasjonene. Om du skal få et inntrykk av hva du kan forvente i spill må du innom HardOCP som tester "Maximum playable settings" for hvert kort, det har seg nemlig slik at PC-spill har en konfigurasjonsmeny der du kan aktivere tyngre innstillinger som øker mengden eyecandy, om du skal spille på PC må du ta en tur innom disse menyene om du syns framerate er for dårlig eller spillet er for stygt.

 

Jeg er av den oppfatning at når man bygger en PC velger man de komponentene som matcher bra, det er ingen vits i å kjøpe prosessor til over 2000 kr for en gaming-PC om man ikke legger minst 3000 kr i skjermkort, men det er ingen unnskyldning for at Hardware.no skal teste med spill som kan kjøres på maksimal grafikk og likevel få 60+ fps med 2 år gamle skjermkort. Igjen må jeg understreke at tester som dette aldri må tas som et godt mål på hvordan faktiske spill vil kjøre i praksis på skjermkortet, og at man heller burde ta en tur innom HardOCP for å få et greit inntrykk av hvordan spillopplevelsen vil være.

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...