Gå til innhold

8800 ULTRA\GTX\GT\GTS Ytelse og OC egenskaper


simalarion

Anbefalte innlegg

Videoannonse
Annonse
EDIT:

Min plan nå først og fremst er et nytt 32xSLI HK med Q9450, 2*2GB DDR2 PC28000(som jeg har liggende på pulten) samt 2*8800GTX i SLI.

DDR2 PC28000? :ohmy:

Altså DDR2 på 1750MHz(3500MHz effektivt)? :!: :p

 

Men når skal Intel og nVidia får fingeren ut av r*va og begynne å samarbeide, de skjønner ikke at folk ville kjøpt som gale!
Tror nok vi må vente en stund før det skjer... :( Men sant som du sier, SLi-støtte og muligheten for å kjøre RAM "Unlinked" på Intel-chipset hadde vært digg. :)
Lenke til kommentar
Helligebilmekanikersvarttbananflueimongolia! :dribble: Vannkjøling?

Ja, det er med vann, en heldekkende på grafikk, og en gammel P4 blokk på cpu. Men 14.251 poeng er jo ved maks klokking, det ligger på ca 13.500 ved 24/7 klokk, og det er jeg godt fornøyd med. Men som sagt, man skal ikke se seg blind på 3DMark, selv om det alltid er gøy å få til en bra score.

Som bla Simalarion er inne på; Crysis på max blir med mitt oppsett hva jeg kaller "ikke spillbart", og noe AA kan jeg bare glemme. Det skal nok mer enn 1-2K poeng i 3DMark til for å virkelig gjøre noe med det. Men i andre og litt eldre spill kan det bli ganske stor forbredring da, feks sørge for at fps ikke detter under 60 slik at V-sync kan stå på uten plutselige fps- drop.

Lenke til kommentar

På slike hastigheter så har vel ikke prosessoren stort å si uansett vel?

Kan ikke si jeg merket noen særlig forskjell fra Quad på 2,4Ghz til 3,4GHz, og overhode ingen ytelseforskjell på 3,0 og 3,4Ghz. :hmm:

 

Edit: Jeg klarte nesten å få utnyttet alle tre kjerne fullt ut i crysis, så den tar ivhertfall i bruk 3 av dem. (klarte å få CPU bruken i crysis til en 66-70% ved å stable et par hundre / tusen sprengtønner oppå hverandre i editoren, før jeg så raste tårnet og sprang dem.

(bare det å dytte til dem fikk altså prosessforbruket til å stige skyhøyt, men det å sprenge dem i tillegg, som igjen forårsaket at deler ble strødd utover himmelen gjorde at prosessforbruket toppet ved en ca 70%)

 

Ettersom hver kjerne tar opp 25%, så vil altså spillet ta opp nesten tre hele kjerner.

Det kan godt hende spillet kanskje tok i bruk to fulle kjerner og to halve...

Endret av andrull
Lenke til kommentar
På slike hastigheter så har vel ikke prosessoren stort å si uansett vel?

Kan ikke si jeg merket noen særlig forskjell fra Quad på 2,4Ghz til 3,4GHz, og overhode ingen ytelseforskjell på 3,0 og 3,4Ghz. :hmm:

 

 

Det er vel mest bare tall i benchmark, men alikevel da :D

 

Skjermkortet er det som sliter mest i Crysis ja :)

Lenke til kommentar
Hva med Crysis? E6600 @ 3.4 eller Q6600 @ 2.8? :p

Quad :p

 

 

core 2 duo @ 3,4 yter faktisk bedre enn en quad @ 2,8. Har begge deler selv. Crysis utnytter faktisk quad veldig lite uheldigvis :( Håper det kommer en patch som kan få fart i sakene!

Ja, som sagt så går den sjelden over 20-30% her, men er langt i fra CPU som er flaskehalsen, er uten tvil skjermkortet :)

 

*glede seg til Tri-SLi*

Lenke til kommentar

Klarte ikke å vente, kjøpte meg akkurat en ny GTX. :p Netshop ukens tilbud... 3400 kroner. Fortsatt mye penger da. Men jeg tenkte sånn her. GTX vil uansett yte bedre enn 2 GT i sli. 2 GT ville kosta meg rundt 700 kroner mer, pluss at hk jeg har ikke støtter PCIe 16x 2.0 så jeg ville ikke kunne dra nytte av det 100 %. Tilfeldig lenke.

Endret av LostOblivion
Lenke til kommentar
Klarte ikke å vente, kjøpte meg akkurat en ny GTX. :p Netshop ukens tilbud... 3400 kroner. Fortsatt mye penger da. Men jeg tenkte sånn her. GTX vil uansett yte bedre enn 2 GT i sli. 2 GT ville kosta meg rundt 700 kroner mer, pluss at hk jeg har ikke støtter PCIe 16x 2.0 så jeg ville ikke kunne dra nytte av det 100 %. Tilfeldig lenke.

8800GT drar ikke nytte av PCI-e 2.0 overhode, og du ville nok trengt lagt flere desimaler i FPSmåleren for å kunne finne noen forskjell. :p Men jeg er enig i at GTX kan være et bedre valg i høyere oppløsninger. :love:

Lenke til kommentar

8800GT gir jo såklart mye mer for pengene enn et 8800GTX, men det er nå en gang slik at dersom man har en stor skjerm så bør man nesten ha noe som drar spill på native oppløsninger. Bildekvaliteten blir ikke så bra på ikke-native oppløsninger med DVI.

 

Edit: I mitt tilfelle har jeg en 20.1 Tommer Sony LCD som støtter 1600x1200. Og jeg nyter godt av å ha et såpass kraftig skjermkort som 8800GTX. Drar alt i nativ oppløsning med AA. Bortsett fra Crysis der bruker jeg ikke AA.

Endret av OcMax
Lenke til kommentar
Bildekvaliteten blir ikke så bra på ikke-native oppløsninger med DVI.
Du kan jo bare skru av scaling. ;) Så får du "like god kvalitet" på en 1280 by 1024 oppløsning på en 1600 by 1200-skjerm som om du skulle brukt en 1280 by 1024-skjerm. ;)

post-89409-1196094086_thumb.jpg

Det er det jeg gjør i Crysis bl a.

Endret av LostOblivion
Lenke til kommentar
Bildekvaliteten blir ikke så bra på ikke-native oppløsninger med DVI.
Du kan jo bare skru av scaling. ;) Så får du "like god kvalitet" på en 1280 by 1024 oppløsning på en 1600 by 1200-skjerm som om du skulle brukt en 1280 by 1024-skjerm. ;)

post-89409-1196094086_thumb.jpg

Det er det jeg gjør i Crysis bl a.

 

Okei. Bra tips. Men hvilke skjermkort har du?

Lenke til kommentar
Bildekvaliteten blir ikke så bra på ikke-native oppløsninger med DVI.
Du kan jo bare skru av scaling. ;) Så får du "like god kvalitet" på en 1280 by 1024 oppløsning på en 1600 by 1200-skjerm som om du skulle brukt en 1280 by 1024-skjerm. ;)

 

Det er det jeg gjør i Crysis bl a.

 

Kjempeflott! Så kan man kose seg med en liten rute på midten av den store skjermen! :hm:

 

For min del takler jeg ikke annet enn native oppløsning...

Endret av sablabra
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...