Gå til innhold

Hvor bra er egentlig high end kortene?


pcp160

Anbefalte innlegg

Hei.

 

Jeg lurer altså egentlig på om feks ATi X850, Nvidia 6800 Ultra og hva de nå heter dde aller beste, faktisk kjører alle spill 100% glatt?

 

Hvorfor jeg spør er også litt fordi jeg skjønner at det er svært individuelt hva folk legger i å "kjøre spill glatt"

Jeg har selv et 6600GT som klarer like over 10000 poeng i 3DMark03. og rundt 7500 uklokket. Med dette kortet kan jeg jo utvilsomt spille alle spill på en grei måte, men kjører man feks Doom på 1280x1024 ser man lett at det godt kunne vært bedre. Det samme gjelder div bilspill (som er det jeg liker), det flyter jevnt over bra, men hvis man feks i GTR får en sladd, så det blir litt røykutvikling, ser man tydelige dramatiske frames drops.

 

Om jeg forsøker og spille med uklokket skjermkort, ser jeg at frameraten jevnt over synker en del (selv om dette ikke er særlig merkbart i mine øyne, fra 85 til 75 feks i bilspill) Men de synlige problemene, drops i tunge partier er like synlige klokket som uklokket. I feks Doom syns jeg det ser ut til å flyte jevnere, og jeg anntar at det er mer merkbart fordi den jevne FPS er lavere i dette spillet enn førstnevnte. Altså at forskjellen på feks 40 og 30 er vesentlig mer synlig enn 85 til 70.

 

Grunnen til at jeg nevner dette er at hvis jeg ikke har missforstått ligger ikke high end kortene mer enn 2-4000 poeng over mitt i 3DMark03, og forskjellen i rene 3DMark poeng er ikke så veldig mye større enn forskjellen på klokket/uklokket hos meg... Rett meg gjerne på dette om det ikke stemmer, og at forskjellen er større enn jeg tror.

 

Så da endelig til selve spørsmålet, og da ser jeg gjerne at noen som har erfaring med disse high end kortene, og som ikke er opptatt av og skryte, og som gjerne deler min oppfatning om at feks 6600GT spiller "alle spill glatt" er en sannhet med visse modifikasjoner forteller meg om det også med disse kortene er synlige FPS drops i tunge partier av spill?

 

Nå er det viktig og påpeke at jeg ikke er ute etter tall for hvor mange fps man gjennomsnittelig får i diverse spill, for det er nettopp poenget mitt, gjennomsnittet er bra nok med 6600GT, men det laveste fps tallet man er nede i, er etter min mening litt lavt.

Jeg har jo her trukket frem 3DMark resultater, og denne baserer seg vel mest på gjennomsnittelig fps ved forskjellige omstendigheter.

Men er det slik at de beste kortene pga blandt annet flere pipelines faktisk slipper helt unna disse fps dropsene jeg snakker om? Jeg har jo fått med meg at de bla annet sparker betraktelig bedre fra seg med AA/AF på, som også er noe 6600GT ikke klarer så mye av før det syns.

 

Ok, ble fryktelig langt dette, men håper noen har noen svar/meninger rundt dette?

Lenke til kommentar
Videoannonse
Annonse

Vel, det er mange faktorer som spiller inn her, som CPU og systemet ellers (hva er det som begrenser spillet) og ikke minst hvor bra en spill utvikler har gjordt jobben sin. Et spill kan f.eks gjøre noe som er veldig ugunstig på en gitt hardware. Til slutt går ikke alle spill 100% glatt selv med topp kortene.

Lenke til kommentar

3DMark betyr lite i reell sammenheng. Det gir bare en viss indikasjon på ytelsen. Selv sitter jeg på et GF6800GT 256 MB GDDR3. Jeg ville aldri byttet til et svakere skjermkort, da jeg har lyst til å spille spillene i 1280x1024 med masse eye-candy uten at det hakker nevneverdig, uansett situasjon og ganske uavhengig av operativsystem (hvis noen måtte mene at et ATI-basert kort for meg er et bedre valg). Mye også på grunn av at jeg har en LCD-skjerm som har 1280x1024 som native oppløsning. Da er det også i den oppløsningen jeg vil spille mine favorittspill. Derfor har jeg et såpass kraftig skjermkort.

Lenke til kommentar

Hadde X800XT før og kjørte alt på maks i Farcry. Gikk helt fint i en halvtime, men etterhvert merket jeg veldig til lagging. Det er jo fremdeles et bra kort vil jeg påstå, og jeg har nå et 6800Ultra. Får ca. samme score i 3dMark05 med det nye kortet også btw. Har ikke testet Farcry med nye kortet ennå så vi får se. Spilt en del andre spill, og må si jeg merker vel mer utseendemessige forskjeller, og måte å rendre et bilde på i spill mellom disse to kortene. Nvidia er bra på OpenGL og Ati er bra på DirectX slik jeg har forstått :hmm: Kommer jo da selvsagt ann på hvilke spill man spiller. F.eks legger jeg merke til at introvideoen i NFSU2 flyter bedre med 6800Ultra kontra X800XT og med X800XT var den introen ganske grå i fargen(blasse farger). Ikke vet jeg hvorfor :dontgetit:

Anyways, jeg vil mene å påstå at det er en ganske stor forskjell på 6600GT og 6800Ultra i spill, uten å ha prøvd 6600GT selv. Har lest tester og sånt da :p

 

EDIT: Og btw, så er resten av hardwaren min veldig bra tør jeg påstå. Bra nok :thumbup:

Endret av gixxerman
Lenke til kommentar

Hmm, takk for gode innspill.

Selvfølgelig kommer det an på hardwaren forøvrig, så jeg tar utgangspunkt i at man har brukbar maskin forøvrig. Tror ikke det er flaskehalsen hos meg, og jeg har også spill på en egen Windows innstallasjon med 18 kjørende prosesser for å få maksimalt ut av min hw.

 

Nå blir jo dette litt ens egen subjektive oppfatning av flyt i spill, men det er også det jeg er litt på jakt etter å høre om. I diskusjoner om hvilket kort man skal kjøpe har jeg inntrykk av at det stort sett er 3DMark resultater som blir lagt til grunn i argumentene, og at de beste dermed gir elendig ytelse/pris.

 

I tillegg leser jeg stadig vekk om folk som sitter med svakere hw en jeg selv har, som sier de spiller Doom på 1280x1024 med alt på fult "glatt" Dette er også med på å gi et intrykk av at de beste er "unødvendig" bra.

 

Jeg sitter så langt igjen med en følese av at forskjellen i praksis faktisk er større enn 3Dmark skulle tilsi. Som nevnt i første innlegg er ikke økningen fra 100 til 120 fps så veldig interessant, men om de beste klarer 50 der de nest beste klarer 35 er jo det en synlig merkbar forskjell i praktisk bruk. Denne problematikken kommer vel ikke særlig god frem i 3DMark tester...

 

(please ikke gjør dette til en ATI vs Nvidia debatt :) )

Lenke til kommentar

Det er umulig å gi et helt straight savr, fordi som du seier, det er basert på en subjektiv oppfattning. Det jeg dogh kan si er at fra 6600GT til 6800ultra eller x850XT, så er det en verden av forskjell i ytelse (så lenge resten av maskinen klarer å henge med).

 

Jeg har selv en 6800ultra gainward golden sample, og i praktisk bruk, så er det egentlig bare Everquest2 der eg ikke alltid får en helt glatt opplevelse (men EQ2 har et kjennt ytelsesproblem sammen med 6800-serien). Ellers så går Farcry, Doom3, HL2 så smooth som det er overhodet behov for (og jeg er rimeig kresen på grafikk og framerates). Det med maks detaljer (dog ikke ultra high på doom3, da det er bare tull og waste av resurser), og med så høy oppløsning som skjermen min takler (1280x1024). I tribes vengeance, der raske reaksjoner er forskjll mellom liv og død, spytter den ut god over 100FPS med alt på maks. Det er en fin følelse =)

 

Til referanse så jører jeg med en Winchester @ 2,65Ghz (mye klokket), 2gig OCZ plat ed. og et Nforce3 hovedkort (K8N-basert).

 

et 6600GT er et mainsteam kort, en ultra et et entusiast kort. Å si du vil merke forskjell er en underdrivelse. Om det er verdt det for DEG å oppgradere derimot er en helt annen sak. De beste kortene igger fremdeles i overkant av 4000, og du kan tross alt gjøre mye annet med slike beløp, for ikke å snakke om at en ny generasjon kort er på vei (på sikt, ingen vet vel egentlig NÅR...). Sik er det jo dog med all hardware, om et år så er det skjeldent fremdeles det beste på markledet.

 

Håper dette hjelp. Her er en benchmark som tester blant annet 6600gt og 6800ultra mot hverandre. SOm du ser så er det neten en dobling av framerate på krevende spill der du ikke er for begrenset av CPU. Sjekk selv =)

http://www.anandtech.com/video/showdoc.aspx?i=2299&p=4

(doom3 bechmark også på neste side forresten)

 

-Stigma

Lenke til kommentar
Stigma Skrevet 28/04/2005 : 10:23

  Det er umulig å gi et helt straight savr, fordi som du seier, det er basert på en subjektiv oppfattning. Det jeg dogh kan si er at fra 6600GT til 6800ultra eller x850XT, så er det en verden av forskjell i ytelse (så lenge resten av maskinen klarer å henge med).

Det er nettopp derfor jeg forsøker og spørre som jeg gjør, denne "verden av forskjell" du beskriver kommer liksom aldri frem i de fleste diskusjoner. Og jeg har lest nok av tester som viser at den gjennomsnittelige fps i diverse spill. Det jeg gjerne skulle ha sett litt tester på var heller minimums fps gjennom et parti i diverse tunge spill...

Syns jo svarene hittil i denne tråden har holdt seg på et saklig og troverdig nivå da :thumbup:

 

Stigma;

Til referanse så jører jeg med en Winchester @ 2,65Ghz (mye klokket), 2gig OCZ plat ed. og et Nforce3 hovedkort (K8N-basert).

 

et 6600GT er et mainsteam kort, en ultra et et entusiast kort. Å si du vil merke forskjell er en underdrivelse. Om det er verdt det for DEG å oppgradere derimot er en helt annen sak. De beste kortene igger fremdeles i overkant av 4000

Ja jeg har jo ikke det "råeste i gata" men tror jeg skulle være innenfor rammene av "nødvendig" hw forøvrig, A64 3500+@2,5 1 GB pc 3700 dual, Nforce4, og raptor raid0.

 

Men da har jeg i grunn et spørsmål igjen, for meg er det mest aktuelle ved eventuell oppgradering et 6600GT til (ettersom jeg har mulighet for SLI).

 

Hvor havner det ytelsesmessig ifht disse andre toppkortene (blir da i så fall et Gainward GLH kort)

Er det slik at sli kan sammenliknes med dobbelt antall pipelines, som jeg antar er det som egentlig er flaskehalsen på 6600GT. Hastigheten er jo høy, det er vel evnen til å gjøre mye på en gang det skorter litt på eller?

Lenke til kommentar
Mener jeg har lest at to 6600gt i sli ikke slår et 6800gt!

 

Tar forbehold om huskefeil...:p

Det er sant... Det er ingen vits i å kjøre 6600GT i SLI (hvis du ikke har et fra før av og bare kjøper et til)... Da er det bedre å kjøpe et 6800GT/ULTRA... 6800GT er vel ca. like dyrt som 2x 6600GT, men har bedre ytelse...

Lenke til kommentar
Er det slik at sli kan sammenliknes med dobbelt antall pipelines, som jeg antar er det som egentlig er flaskehalsen på 6600GT.

Ja, men bare i de spillene hvor SLI fungerer nær optimalt. Og husk at du fortsatt vil være begrenset til 128 MB minne, noe som kan bli en alvorlig flaskehals hvis du vil ha glattest mulig opplevelse i spill som bruker mye grafikkdata. I ytelsestester vises det vanligvis ikke nevneverdige forskjeller mellom 128 og 256 MB, men de viser ikke alltid den hele sannheten. Bl.a. har jeg lest at 256 MB minne gir færre ytelsesfall i Doom 3 high quality under faktisk spilling, mens timedemo-nivåene det testes med ikke bruker nok minne til å gi særlige utslag.

Lenke til kommentar
EasyRaider Skrevet 28/04/2005 : 18:49

Ja, men bare i de spillene hvor SLI fungerer nær optimalt. Og husk at du fortsatt vil være begrenset til 128 MB minne

Ok, så det blir altså ikke 128+128, det viste jeg ikke, har ikke satt meg så godt inn i det enda... Men dette med at spillene fungerer optimalt med sli eller ikke, hva er det som avgjør det, må spillet være laget for det, slik at det kun er de helt nyeste spillene som fungerer med sli?

 

I ytelsestester vises det vanligvis ikke nevneverdige forskjeller mellom 128 og 256 MB, men de viser ikke alltid den hele sannheten. Bl.a. har jeg lest at 256 MB minne gir færre ytelsesfall i Doom 3 high quality under faktisk spilling, mens timedemo-nivåene det testes med ikke bruker nok minne til å gi særlige utslag.

Interessant, det er nettopp ting som dette jeg håpet å få belyst litt i denne tråden :)

Lenke til kommentar

Er enig i at den laveste fps du kan regne med å få i et spill, er mye viktigere enn gjennomsnittlig fps. Og syns det burde vert brukt mye mer i tester som skal sammenligne ytelsen på forskjellige kort.

 

I 3DMark05 er det jo enkelt å få ut graf over fps under en test. Og mange tester som bruker virkelige spill, har vel også denne muligheten.

 

Om high end kortene da gjør det så mye bedre, kommer vel an på hva som er flaskehalsen under fps fallene.

Endret av Sigurd2
Lenke til kommentar
Sigurd2 Skrevet 29/04/2005 : 08:44

I 3DMark05 er det jo enkelt å få ut graf over fps under en test.

Ok, det var nyttig å vite, har bare prøvd gode gamle 03 jeg.

Men gjelder dette også i gratisversionen- at man kan se laveste fps?

Lenke til kommentar

Som regel er laveste FPS akkurat det samme i forhold mellom kortene som gjennomsnittlig FPS og høyeste FPS. (dvs. om gjennomsnittlig FPS på kort A er dobbelt så høy som kortB, så er som regel også minste FPS på kortA dobbelt så høy som kortB også).

 

De fleste unntakene er en eller annen form for bugs som du ikke merker i praktisk bruk, eller såpass små avvik at det ikke er verdt å snakke om. Dermed er gjennomsnittlig FPS et godt mål, selv om det kanske egentlig forteller lite om hvordan flyten i spillet blir i praksis.

 

-Stigma

Endret av Stigma
Lenke til kommentar

Jeg mottok et HiS x800xt kort for et par uker siden og hadde nesten forventet å kunne spille Far Cry med alt på maks i 1280x1024 og ha fps på over 60 nesten hele tiden. Så feil kan man ta! Hvis jeg bruker kikkerten er jeg nede i 20 fps og for meg er det helt uakseptabelt. Dette håper jeg er fordi resten av utstyret mitt ikke henger med, selv om jeg faktisk trodde at en xp-m 2400 klokket til 2,5 GHz (217*11,5) skulle holde. Så det var en middels stor skuffelse. Håper det stemmer at amd 64 Venice klokker like bra som ryktene skal ha det til fordi da går nok litt av feriepengene til en oppgradering ;)

 

Fikk ca 11700 poeng i 3dmark03 etter lett klokking av skjermkortet for de som måtte lure på det.

 

EDIT:Glemte et ord, doh

Endret av kavorka
Lenke til kommentar
Som regel er laveste FPS akkurat det samme i forhold mellom kortene som gjennomsnittlig FPS og høyeste FPS. (dvs. om gjennomsnittlig FPS på kort A er dobbelt så høy som kortB, så er som regel også minste FPS på kortA dobbelt så høy som kortB også).

 

De fleste unntakene er en eller annen form for bugs som du ikke merker i praktisk bruk, eller såpass små avvik at det ikke er verdt å snakke om. Dermed er gjennomsnittlig FPS et godt mål, selv om det kanske egentlig forteller lite om hvordan flyten i spillet blir i praksis.

 

-Stigma

er ikke altid det er det. dvs at hvis gjennomsnitts fpsen er høyere så er det ikke sikkert at minimum fpsen er høy...det kommer alt ann på kort, driver og spill. men etter hva jeg har sett av tester, så har nvidia høyere minimum fps i forhold til ati,

Lenke til kommentar
Er enig i at den laveste fps du kan regne med å få i et spill, er mye viktigere enn gjennomsnittlig fps. Og syns det burde vert brukt mye mer i tester som skal sammenligne ytelsen på forskjellige kort.

Hvor ofte er frameraten så lav? 10% av tiden? 1%? Bare en gang iløpet av testen? Minimum frameraten sier egentlig ganske lite. Gjennomsnitt framerate er et bedre mål, men dette kan også være ganske missvisende. Det beste ville være et form for framerate graf/histogram der man kan se frameraten gjennom hele testen.

Endret av MistaPi
Lenke til kommentar
Er enig i at den laveste fps du kan regne med å få i et spill, er mye viktigere enn gjennomsnittlig fps. Og syns det burde vert brukt mye mer i tester som skal sammenligne ytelsen på forskjellige kort.

Hvor ofte er frameraten så lav? 10% av tiden? 1%? Bare en gang iløpet av testen? Minimum frameraten sier egentlig ganske lite. Gjennomsnitt framerate er et bedre mål, men dette kan også være ganske missvisende. Det beste ville være et form for framerate graf/histogram der man kan se frameraten gjennom hele testen.

Jeg syns det beste ville være å få oppgitt gjennomsnitts fps med standardavvik. Standardavvik forteller noe om usikkerheten til en størrelse, det er gjennomsnittlig avvik fra gjennomsnittet kan du si. Så feks gjennomsnittlig fps på 50 med standardavvik 15 betyr at fps er omtrent 50 og at variasjoner på +-15 er normalt.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...