Gå til innhold

hvilken cpu duger til geforce 7800gt


eladmir

Anbefalte innlegg

Videoannonse
Annonse
Og det er jo ikke akkurat moderat klokk jeg kjører til daglig, 3GHz og 300Mhz minnefart. Men så er det heller ikke snakk om 1, eller 0,5 fps mer, jeg får jo en dramatisk økning akkurat der jeg trenger det. Og stort sett ingen økning der jeg ikke trenger det. Jeg bruker altså 1280x1024 og 8xAA og 2xAF.

5338719[/snapback]

Nå er det vel ingen tester som sier at skjermkortet fort blir flaskehalsen med såpass lite antialiasing.

Lenke til kommentar

Tror nok at den Toms Hardware testen var uten AA. Derfor tallene var så høye. Og da blir ikke skjermkortet lenger noen flaskehals. Dog har det heller ingen betydning om man får 150fps på en 3000+ eller 180fps på en 4000+. Så lenge man greier å holde 60fps så holder det i massevis. Og at man aldri ramler noe særlig under 30fps på gitte tidspunkt.

 

Men f.eks i Doom3 når man kjører HighQuality, 1280x1024 og 4x Antialiasing så vil skjermkortet være en flaskehals. Og da vil det nesten ikke være forskjell mellom en 3000+ og en 4000+. Men samtidig greier man glatt å få 60fps og mer på mange skjermkort. Det er dette som er interessant. For dette er slik man vil spille et spill.

Lenke til kommentar
Og det er jo ikke akkurat moderat klokk jeg kjører til daglig, 3GHz og 300Mhz minnefart. Men så er det heller ikke snakk om 1, eller 0,5 fps mer, jeg får jo en dramatisk økning akkurat der jeg trenger det. Og stort sett ingen økning der jeg ikke trenger det. Jeg bruker altså 1280x1024 og 8xAA og 2xAF.

5338719[/snapback]

Nå er det vel ingen tester som sier at skjermkortet fort blir flaskehalsen med såpass lite antialiasing.

5340627[/snapback]

 

 

Er AAx 8 lite antialiasing også nå? :ermm:

Lenke til kommentar
Og det er jo ikke akkurat moderat klokk jeg kjører til daglig, 3GHz og 300Mhz minnefart. Men så er det heller ikke snakk om 1, eller 0,5 fps mer, jeg får jo en dramatisk økning akkurat der jeg trenger det. Og stort sett ingen økning der jeg ikke trenger det. Jeg bruker altså 1280x1024 og 8xAA og 2xAF.

5338719[/snapback]

Nå er det vel ingen tester som sier at skjermkortet fort blir flaskehalsen med såpass lite antialiasing.

5340627[/snapback]

 

 

Er AAx 8 lite antialiasing også nå? :ermm:

5341408[/snapback]

 

Tror det ble skrevet feil. Byttet om AA og AF. For det stod AA 8x og AF 2X. Tror heller det skulle være AA 2x og AF 8X. ;)

Lenke til kommentar
Zuckron Postet i går, 22:59

Er AAx 8 lite antialiasing også nå? 

Hmm takk, jeg syns jo Tvangsgreie har vært en meget god bidragsyter til å gjøre debatten interessant, selv om vi muligens er noe ueninge... Men akkurat det siste innlegget forsto jeg rett og slett ikke helt :dontgetit: . 8xAA er jo så mye AA det går an å sette i Nvidia driveren, så det eneste som er lavt er anisotropisk filtrering (usikker på stavingen der gitt, men altså AF, og den står på 2x ;) )

 

OcMax Postet i går, 20:07

Dog har det heller ingen betydning om man får 150fps på en 3000+ eller 180fps på en 4000+. Så lenge man greier å holde 60fps så holder det i massevis. Og at man aldri ramler noe særlig under 30fps på gitte tidspunkt.

Dette er akkurat hva jeg mener også. Ideelt sett skulle jeg riktignok helst sett at fps aldri datt under 60,eller 70, for da kunne jeg brukt Vsynch også, uten å få de voldsomme framedrops det blir med det hvis fps havner under oppdateringshastigheten.

 

Men uansett, jeg kan desverre ikke teknikken i dybden bak dette godt nok til å være den som skal forklare hvorfor, men jeg får altså en svært nyttig økning i et spill der fps er særlig viktig. Mitt intrykk er at når flaskehals skal måles, gjør man det uten noe AA/AF, og snakker da om fps som er av ganske teoretisk interesse. Men hos meg er det jo økningen med AA på fullt som er interessant, og derfor kan jeg jo ikke uten videre være med på at cpu i praksis ikke er en flaskehals.

 

Man snakker jo alltid om at jo bedre skjermkort- jo mer flaskehals blir cpu, og målt i teori @200 fps ser jeg logikken i det, men på den annen side tror og håper jeg jo at jeg hadde hatt en mye høyere fps, også i de tunge områdene om jeg hadde hatt feks 7800GTX, selv om jeg ikke hadde hatt cpu@3Ghz... Dermed blir det muligens en større flaskehals, men av mindre praktisk betydning likevel?

 

Men hva sier teorien her egentlig, er det slik at bruk av AA i teorien ikke belaster cpu mer, og at dette ene og alene er skjermkortets problem internt?

Jeg lurer rett og slett på hva som da kan være forklaringen på hvorfor jeg får denne boosten i fps, jeg prøver i grunn bare og forstå dette her, ikke å være vrang eller påståelig. :)

Lenke til kommentar
Men f.eks i Doom3 når man kjører HighQuality, 1280x1024 og 4x Antialiasing så vil skjermkortet være en flaskehals. Og da vil det nesten ikke være forskjell mellom en 3000+ og en 4000+. Men samtidig greier man glatt å få 60fps og mer på mange skjermkort. Det er dette som er interessant. For dette er slik man vil spille et spill.

5340792[/snapback]

 

Jeg har nå testet Sempron 3300+ og A64 3400+ i far Cry med 6600GS i 1280x1024 oppløsning og high quality, 8x AF og 0 AA. Jeg merket ikke den store forskjellen mellom dem før jeg nådde factory-scenen(går mye treger når jeg snur meg rundt med litt action). Jeg vil tro at det lagger mer på de 2 siste scenene.

Merket også i tidligere brett at dett gikk noe treigere når det var litt kriging med sempron -Kan nevne scene 1 ved tårnet. Sempron ga lavere FPS enn A64 i enkelte scener.

 

Jeg stilte inn kvaliteten etter hva skjermkortet klarte med A64 3400+.

 

Kraftigere skjermkort ville ha ungått mye av denne laggingen, men det viser at prosesssoren har litt å si når skjermkortet ikke stekker til. Jeg er ganske sikker på at ingen prosessorer i dag utnytter skjermkortet fullt ut.

Lenke til kommentar
Men akkurat det siste innlegget forsto jeg rett og slett ikke helt :dontgetit: . 8xAA er jo så mye AA det går an å sette i Nvidia driveren, så det eneste som er lavt er anisotropisk filtrering (usikker på stavingen der gitt, men altså AF, og den står på 2x ;) )

5341969[/snapback]

Ok, beklager. Jeg leste litt fort, og gikk utfra at du mente omvendt, siden det vanlige er å ha høyere AF enn AA. Da må jeg nesten gå utfra at det spillet ikke er spesielt tungt for skjermkortet, for Quake 4 tar knekken på GTX 256-kortet mitt om jeg setter 8x AA i 1280x1024, ultra high detail. 4x AA går stort sett greit, men 8x hakker skikkelig, sansynligvis under 30 FPS.

Endret av tvangsgreie
Lenke til kommentar
tvangsgreie Postet i dag, 02:20

Ok, beklager. Jeg leste litt fort, og gikk utfra at du mente omvendt, siden det vanlige er å ha høyere AF enn AA. Da må jeg nesten gå utfra at det spillet ikke er spesielt tungt for skjermkortet, for Quake 4 tar knekken på GTX 256-kortet mitt om jeg setter 8x AA i 1280x1024, ultra high detail. 4x AA går stort sett greit, men 8x hakker skikkelig, sansynligvis under 30 FPS

Ok, det er nok fordi du har en alt for dårlig cpu det da..! :tease:

 

he he, nei det var en spøk, dog ikke umulig at det er noe i det likevel :whistle: .

Akkurat GTR er nok sikkert både mindre skjermkortkrevende og mer cpu krevende enn mange andre nye spill ja. Uten at jeg egentlig VET det, er det i alle fall rimelig og anta, siden det simuleres en rekke parametre og foregår mye som ikke syns på skjermen. Det samme gjelder nok flightsim hvor jeg også har en markant forbedring i utseende.

Men det var jo akkurat dette med at jeg etter cpu bytte plutselig kunne gå fra 4xAA og opp til 8xAA uten at det ble laggete som er hele utgangspunktet for min deltagelse i denne debatten.

 

Ellers syns jeg det er litt interessant at andre, som Falcon_ også gjør noen tester på dette med cpu/minne påvirkning av opplevelsen i real life scenarieoer. Selv om dette muligens blir tildels subjektive opplevlser, er det jo det som teller til syvende og sist, syns jeg i alle fall. Er fattig trøst med høy score i 3DMark, hvis spill lagger. Det er jo forsjåvidt ikke overaskende, hvis det man opplever i praksis i spill er noe anderledes enn rene syntestiske tester tilsier.

Jeg har jo aldri lagt sjul på at mine spill er i en litt spesiell nisje, så skal ikke heller påstå at dette vil være like interessant i alle spill. Men akkurat i mitt tilfelle skulle jeg i alle fall med letthet sagt, i en blindtest, hva som var klokket og ikke når det gjelder cpu/minne.

 

Chevelle  i går, 03:28 

Hva jeg syntes er mer spennende er hva man betaler for og få den lille ekstra ytelsen i spill i henhold til testen det er linket til. Tar man foreksempel en AMD Athlon 64 3200+ "Venice" og en AMD Athlon 64 FX-57 så er det en prisforskjeld på ca 7300 kroner og det for og få ca 36 flere bilder i 1280 X 1024. Er ca 200 kroner per bilde. Men for og komme tilbake til det trådstarter spurte om. Har du en P4 3,2 eller 3000+ så klarer du deg bra.

 

Ja, for å ikke glemme trådstarter helt her, er jeg den første til og si meg ening i dette. Men hvis man skal regne slik- kroner pr bilde, eller noe sånt, så vil vel stort sett alltid det aller billigste/dårligste være det som kommer best ut. Man betaler da alltid veldig mye for lite ekstra i dataverden generelt vil jeg si.

Derfor står jeg fortsatt for at ut av esken vil feks 3700+ være er et fornuftig valg, man får da med seg en god del bedre ytelse enn de aller laveste modellene som er nyttig ikke bare i spill, og det er omtrent rundt 3700+ grensen går for når prispåslaget blir veldig høyt i fht ytelsesgevinsten.

:)

Lenke til kommentar

8x AA er nok utelukket for de fleste nye spill. 4x er vanligvis et fornuftig maksimum.

 

Og som det sies her så skal man ikke legge for mye vekt på syntetiske tester, slik som f.eks 3DMark05. Man skal teste selv ved å spille. For det er jo det, som det sies her, som teller til syvende og sist.

 

Et spill som kan være bra å kjøre benchmark med er F.E.A.R. For her vises min. bilder i sekundet. Men selv i dette spillet er det ting som ikke vises på testen. F.eks på den ene maskinen min har jeg et 6800gt skjermkort. Og her lagger det (Svapper til harddisken) dersom jeg setter Texture quality til Maximum. Men dette VISER IKKE benchmarken i spillet! Jeg få får samme, min. average og maksimum bilder i sekundet med Texture quality på maximum og medium! Må stille Texture quality til medium for å spille spillet helt glatt uten lagging. Derimot på den andre maskinen min hvor jeg har et 7800GTX så kan texture quality kjøres på maks.

 

Så hele poenget er vel at man ikke skal se seg blind på benchmarker. Selv om man leser en test fra en kjent hardware side hvor de tar for seg masse tester. For her vises ofte ikke min. frame pr. sek. Og iallefall ikke det eks. jeg nevnte med F.E.A.R. Men nå har jeg ikke testet om det kunne være fordi jeg hadde 'Bare' 1GB RAM i maskinen som har et 6800GT at d lagget med Texture Quality på Maximum. For den maskinen som har et 7800GTX har 2GB RAM. Og begge skjermkortene har 256MB RAM. Noen som har erfaring med at man trenger 2GB RAM for å få bra flyt i Maximum Texture Quality i F.E.A.R?

Lenke til kommentar

En annen ting... Når man først snakker om mest for pengene så er det vel ingenting som gir mer for pengene enn å kjøpe et sokkel 754 PCI-Express hovedkort til rundt 500 Kr. og kjøpe en Sempron 64bit med 256KB Cache til 600 - 700KR og overklokke den til over 2000MHz :) I utgangspunktet og i praksis er det svært liten forskjell mellom en Athlon 64 939 og en 754 Athlon 64 på samme klokkefrekvens. Det har jo vært bevist gang på gang. Og en Sempron 64 med 256KB Cache på samme klokkefrekvens som en Athlon 64 med 512KB Cache er ikke rare forskjellen på. Dette har jo også vært bevist.

 

Så skal man først begynne å se på hva som gir bang for buck så er det vel nettopp et slikt system. Jeg vil tro at en Sempron med 256KB L2 Cache på rundt 2.2GHz ikke er langt unna en Athlon 64 3200+ 939 i ytelse. Og her sparer man betraktelig med penger også.

 

Om jeg skulle bygget en billig spillemaskin til noen pr. i dag så hadde det vel blitt et slikt system. Kanskje med et 6800GS skjermkort. Jeg har allerede bygget en maskin til noen som var basert på en Sempron 64 2800+. Denne klokket jeg også til rundt 2000MHz.

 

Edit: Og skal man virkelig spare penger så kan man jo kjøpe et demobrukt Gainward 6800LE AGP til under 1000 Kroner og et demobrukt AGP hovedkort. Så kan man satse på at man er så heldig å få låst opp alle pipelines og vertex units på skjermkortet, hive på en nv silencer 5, overvolte skjermkortet og kanskje greie over 400MHz på GPU og over 900MHz på minnet. Da har man ytelse tilnærmet et grafikkort som koster dobbelt så mye :) Men dessverre er det mange 6800LE kort som har ødelagte pipelines :( Og om man ikke får låst opp noen så har man litt dårligere ytelse enn et 6600GT. Om man ikke overklokker litt da. Får man låst opp til 12 pipelines så er man berget. 12 + overklokk gir bra ytelse.

Endret av OcMax
Lenke til kommentar
mulig grafikk motoren i FEAR er dårlig? jeg inbiller meg at bf2 krever mere av grafikk kortet å jeg kan med mine 2 gig ram å 7800 GT  spille bf2 på ultra high med bra fps.. (å JA det er hjemmelagd grafikk config)

5344544[/snapback]

 

 

Hvordan gjorde du det? Og si litt mere om det det virket interesannt... :)

Lenke til kommentar

det er jo litt offtopic men kan legge ut screenie så kan du sammenligne på den originale

edit: altså configene ligger i : My Documents\Battlefield 2\Profiles\0001

å her er bilde av min grafikk config

http://img410.imageshack.us/my.php?image=grafikk4nk.jpg åsså ingame da:

http://img410.imageshack.us/my.php?image=i...settings2iw.jpg håper dette kom til nytte:)

Endret av AmdTommy
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...