Gå til innhold

8800 ULTRA\GTX\GT\GTS Ytelse og OC egenskaper


simalarion

Anbefalte innlegg

Tror det vil komme både 512MB og 1024MB-versjoner av nye G92-GTS ja, men lurer på om minnebussen blir en flaskehals da... (Blir nok fortsatt 256-bit) Om dem ikke endrer litt på PCB-designet på 1024MB-versjonen da. (Hadde ikke gjort noe å fått en SLi-kontakt til på 1GB-versjonen slik det går ann å kjøre Tri-SLi med det)

 

Tror navnet fortsatt vil bli det samme ja, men siden de nye kortene har 512/1024MB minne vil det nok gå greit å skille kortene for de fleste. :)

Endret av Sindre Aleksander
Lenke til kommentar
Videoannonse
Annonse
Tror navnet fortsatt vil bli det samme ja, men siden de nye kortene har 512/1024MB minne vil det nok gå greit å skille kortene for de fleste. :)

He he, for de fleste "som oss" gjør det vel sikkert det ja, for "vanlige" mannen i gata blir det vel ikke fullt så greit å holde styr på... Men det er jo i tråd med skjermkortprodusentenes standard for merking det da. Lurer noen ganger på om de med vilje gjør det bortimot umulig for de som ikke pugger bokstavendelser, å se ytelse ut fra modellbetegnelsen. Riktignok har det vel hittil vært ganske greit med 8 serien, ifht hva det var med feks 6 serien, så det blir kanskje bedre med tiden :p

 

Men nok om det, går det an å si noe generelt om når 512MB minne blir for lite? La oss si jeg som bruker 1600x1200 og har et GTS640 nå, tror vi da jeg ville fått merkbart bedre ytelse med de nye kortene selv om det "bare" er 512MB. Regner med at svaret også vil være spillavhening, så kan jo bruke Crysis som eksempel kanskje?

Lenke til kommentar
Men nok om det, går det an å si noe generelt om når 512MB minne blir for lite? La oss si jeg som bruker 1600x1200 og har et GTS640 nå, tror vi da jeg ville fått merkbart bedre ytelse med de nye kortene selv om det "bare" er 512MB. Regner med at svaret også vil være spillavhening, så kan jo bruke Crysis som eksempel kanskje?

Gravde frem en liten pekepinn her:

 

1280x1024 medium

* NoAA 184MB

* 2xAA 295MB

* 4xAA 355MB

* 8xAA 395MB

 

1280x1024 high

* NoAA 315MB

* 2xAA 375MB

* 4xAA 440MB

* 8xAA 470MB

-Texture medium-

* NoAA 300MB

* 2xAA 363MB

* 4xAA 423MB

* 8xAA 445MB

 

1680x1050 medium

* NoAA 223MB

* 2xAA 375MB

* 4xAA 455MB

 

1680x1050 high

* NoAA 368MB

* 2xAA 456MB

* 4xAA 535MB

-Texture medium-

* NoAA 340MB

* 2xAA 428MB

* 4xAA 505MB

 

1920x1200 Medium

* NoAA 240MB

* 2xAA 430MB

* 4xAA 535MB

 

1920x1200 High

* NoAA 400MB

* 2xAA 515MB

* 4xAA 615MB

-Texture Medium-

* NoAA 370MB

* 2xAA 475MB

* 4xAA 585MB

 

Kilde. (Forøvrig en svært god guide)

 

Som dere ser skal 8800GT(S) 512MB holde opp til 1680x1050 på medium og 4xAA, High med 2xAA og High i 1920x1200 uten AA.

Mulig jeg kan teste litt med Very High, mye AA osv. i Vista i morgen, og se hvor høyt jeg kommer i minnebruk, og se hvordan ting er på Very High kontra High... :)

Hvor mye minne som blir brukt, har forsåvidt også med hvilken bane det gjelder.

Endret av Sindre Aleksander
Lenke til kommentar

Hvordan ser du "video memory" bruken da?

Husker jeg før brukte Rivatuner, men har ikke klart å få det til på nyere drivere/Vista. :(

 

Edit: står i Rivatuner: "- Videomemory usage monitoring is not available under Vista due to Vista videomemory virtualization."

Endret av andrull
Lenke til kommentar

Går visst ikke i Vista nei, men får bruke litt Very High->High-tweaks og teste med AA og forskjellige oppløsninger da. :)

 

Kommandoen for å se videominnebruk: sys_budget_videomem

Videre står det(i guiden)

Video memory in MB. See section in the guide on video memory and why this is important. Although the "Thrashing could occur warning!" could be a clue. Set it for your video cards memory. people with 256MB, 320MB or even 512MB can especially benefit from this information. Video memory in the game is directly effected by texture quality and texture resolution in the game. LOD tweaking and texture view ranges will effect vid memory as well. (Works with XP ONLY)
Lenke til kommentar

Very High bruker nok litt mer enn High(som listen tar utgangspunkt i), men minnet er ikke hovedproblemet her. Ingen av dagens kort klarer Crysis i 1920x1200 på Very High med AA, med spillbar fps. (25-30+) Ytelsen faller nok ytteligere som Intern sier, pga. for lite minne.

 

Edit: Single-kort nei. Med gode drivere og SLi går det nok. :)

Endret av Sindre Aleksander
Lenke til kommentar

Takk for innspillet med den listen over minnebruk Sindre Aleksander, den var interessant.

Men som så ofte ellers er det nok lurt å ikke se seg blind på slike ting. Siden jeg er litt "sær" og velger 4:3 skjerm med 1600x1200 var ikke akkurat den oppløsningen med på listen, men det vil jo da ligge et sted i mellom 1680x1050 og 1920x1200.

 

Jeg bruker jo et godt klokket GTS640MB som gir ca 13,5K 3DMark06 på 24/7 fart. Og man ser da ut fra tabellen med andre ord at jeg har nok minne til å drive 1920x1200 på high og 4xAA. Men dette er jo høyst teoretisk, da det i praksis "fps messig" sier takk for seg lenge før den tid, selv uten noe AA, og i 1600x1200.

Så selv om vi da sier at GT er noe bedre enn mitt i ren ytelse, har jeg ingen tro på at man i praksis vil være interessert i å spille med en oppløsning/AA- instilling som gjør at minnebruken faktisk blir så høy. Kortet er rett og slett ikke kraftig nok.

Men det er sikkert andre spill der dette bildet kanskje ser anderledes ut, og hvor minnebruken i praksis ødelegger for opplevelsen. :)

 

Edit; jeg har ikke sjekket linken, at vi snakker om samme spill, men jeg snakker her utfra Crysis demoen altså...

 

Edit2: Ser du sier noe av det samme i innlegget over Sindre Aleksander.

Endret av pcp160
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...