Gå til innhold

XFX GeForce 7800 GTX


Anbefalte innlegg

Det er vel nettop her du får en økning, sitter selv med 2 slike kort og får en betydelig bedring i nettop 3D mark programmer, utover dette har det ingen hennsikt da det ikke er noe som klarer å utnytte 2 kort.

Joda i spillet F.E.A.R så med softshadows og andre godbiter på ;)

Lenke til kommentar
Videoannonse
Annonse
Radar911: Hvor mange potensielle kjøpere av geforce 7800GTX tror du eier en skjerm som takler 2048x1536? (Ja det er et hint om hvor representativt og nyttig et sånt resultat er for high-end spillere)

Poenget er å få frem forskjellen mellom kortene uten at CPU blir en flaskehals. Det er derfor de kjører den oppløsningen.

 

Det som er interessant er å vite hvordan kortene yter i forhold til hverandre, og ikke hva de klarer i oppløsninger som aldri blir brukt.

 

 

En ting jeg ikke skjønner er hvorfor det ikke blir testet med de nye AA funksjonene som har kommet. Eller.. jeg skjønner hvorfor, jeg skulle bare ønske det ble gjort.

Lenke til kommentar
Radar911: Hvor mange potensielle kjøpere av geforce 7800GTX tror du eier en skjerm som takler 2048x1536? (Ja det er et hint om hvor representativt og nyttig et sånt resultat er for high-end spillere)

Poenget er å få frem forskjellen mellom kortene uten at CPU blir en flaskehals. Det er derfor de kjører den oppløsningen.

 

Det som er interessant er å vite hvordan kortene yter i forhold til hverandre, og ikke hva de klarer i oppløsninger som aldri blir brukt.

 

 

En ting jeg ikke skjønner er hvorfor det ikke blir testet med de nye AA funksjonene som har kommet. Eller.. jeg skjønner hvorfor, jeg skulle bare ønske det ble gjort.

Må si meg ganske enig med deg er ja!

Lenke til kommentar
Det som overasket meg var forskjellen mellom intel og AMD. I følge denne testen var det ikke mye forskjell på CPUene.

Det henger sammen med at Hardware.no kun testet med en oppløsning på 1024x768, og i så lav oppløsning så representerer ikke CPUen noen flaskehals ettersom GPUen gjør mesteparten av jobben. I høyere oppløsninger, derimot, så blir CPUen stadig viktigere ettersom GPUen da trenger mer "hjelp" hvis du skjønner hva jeg mener.

Lenke til kommentar
Da vil jeg igjen spørre: Hva er poenget med å tvinge frem en forskjell som spillere flest aldri vil oppleve?

Det kan være at det kommer spill som er mer krevende senere. Det har skjedd før, og jeg mistenker at det kommer til å skje igjen. ;)

 

Det vil alltid være forskjeller på skjermkort, og poenget med en test burde være å finne dem.

 

Kjøper man et skjermkort til 4-5000.- så gjør man det for å maxe alt av instillinger. Det blir ikke gjort i denne testen. Verken AA, AF eller oppløsning blir maxet. Når man atpåtil bruker en P4 3.2 blir det bare ennå mer teit.

 

De har ikke engang testet transparent AA. Gir det bedre AA? Funker det på alle spill? Hvordan blir ytelsen?

 

 

FX57, Transparent AA, vanlig AA, AF, 1028*1024 til 2048*1536 ... testes i HL2, FEAR, BF2 osv. Hvor vanskelig kan det være?

Lenke til kommentar

Flott test Kristian Rolf! Dette kortet fikk jeg utrolig lyst på. :D

 

Litt pirking: på siste side skriver du "og nevnte vi at kortet gir deg rå ytelse...?". På norsk kan man kun ha tre tegn, så det riktige blir "..?". ;)

Endret av @kd
Lenke til kommentar
Da vil jeg igjen spørre: Hva er poenget med å tvinge frem en forskjell som spillere flest aldri vil oppleve?

Det kan være at det kommer spill som er mer krevende senere. Det har skjedd før, og jeg mistenker at det kommer til å skje igjen. ;)

Forskjellige spill har forskjellige flaskehalser. Se f.eks tilbake i tid og se om ytelsen i Max payne eller Doom3 var bra målestokker for hvorden ytelsen i HalfLife 2 eller FarCry ble. Ytelsen i forskjellige oppløsninger i samme spill er heller ikke enkle å ekstrapolere til andre oppløsninger siden ytelsen ikke er proposojnal med oppløsninga.

 

Dermed er resultatene fra 2048x1536 12zAA/16xAF i nye spill være lite representative for ytelsen i fremtidige spill i f.eks 1600x1200 og 1280x1024. Testen er altså like unyttig for fremtiden som f.eks tester av Radeon 9800XT er for nye spill i dag.

Lenke til kommentar

Vedrørende forskjellen mellom CPUer på spill med XFX GeForce 7800 GTX skjermkort så se denne testen til Extremetech:

 

Real Gaming Challenge: Intel vs. AMD

 

I denne testen blir FRAPS benyttet for å unngå problematikken med store variasjoner i FPS over tid:

The results speak for themselves. The average frame rate across all six games for the Athlon 64 system is 61fps, while the Pentium 4 averaged 54fps. That's a 13% difference—not tiny, but not large enough to bowl us over. What is more important, we feel, is how often a game runs slowly enough that you can feel it. This methodology is consistent with the one used by a new performance analysis tool in the works at Intel. We picked arbitrary performance thresholds, but these are numbers based on years of game playing experience. We picked frame rates at which you actually notice an impact on how the game feels, not the absolute minimum required to play and enjoy a game. This is where the Athlon 64 really kicks the Pentium 4 in the teeth. Our P4 system spent almost a third of the time, across all games, beneath our target minimum FPS. The Athlon 64 system, on the other hand, spent only 14% of its time there. This is a difference of a whopping 121%!

 

Clearly, the results we get from timedemo-style benchmarks in our processor reviews aren't far off the mark. If anything, you could say they're kind to Intel. By focusing on average frame rate in the playback of pre-recorded or scripted demos, we find AMD processors are typically 15-25% faster in gaming scenarios. Focusing on the amount of time spent beneath a minimum FPS threshold makes the situation look far worse for Intel, as they spend more than twice as much time beneath the limit.

Endret av snorreh
Lenke til kommentar
Det som overasket meg var forskjellen mellom intel og AMD. I følge denne testen var det ikke mye forskjell på CPUene.

Det henger sammen med at Hardware.no kun testet med en oppløsning på 1024x768, og i så lav oppløsning så representerer ikke CPUen noen flaskehals ettersom GPUen gjør mesteparten av jobben. I høyere oppløsninger, derimot, så blir CPUen stadig viktigere ettersom GPUen da trenger mer "hjelp" hvis du skjønner hva jeg mener.

Beklager Snorreh, det er ikke helt sånn det fungerer. Faktisk er det helt motsatt :)

 

Det er ved lave oppløsninger CPU blir flaskehals ettersom framerate blir høyere. Ved å kjøre høy oppløsning eliminerer man CPU som flaskehals så mye som mulig, og legger mer last på skjermkortet.

 

 

Simen1: Du skal få lov til å mene hva du vil. Jeg mener fortsatt at kortene burde vært testet i høyere oppløsning, eller i det minste med de forskjellige AA-funksjonene.

 

Som sagt, det er forskjellene man prøver å få frem i en test, right?

Lenke til kommentar
Det som overasket meg var forskjellen mellom intel og AMD. I følge denne testen var det ikke mye forskjell på CPUene.

Det henger sammen med at Hardware.no kun testet med en oppløsning på 1024x768, og i så lav oppløsning så representerer ikke CPUen noen flaskehals ettersom GPUen gjør mesteparten av jobben. I høyere oppløsninger, derimot, så blir CPUen stadig viktigere ettersom GPUen da trenger mer "hjelp" hvis du skjønner hva jeg mener.

Beklager Snorreh, det er ikke helt sånn det fungerer. Faktisk er det helt motsatt :)

 

Det er ved lave oppløsninger CPU blir flaskehals ettersom framerate blir høyere. Ved å kjøre høy oppløsning eliminerer man CPU som flaskehals så mye som mulig, og legger mer last på skjermkortet.

Det er ikke min erfaring iallefall, sett bort ifra driver-optimaliseringer o.l. NVIDIA har pålagt CPUen flere oppgaver i sine drivere nå enn tidligere, selv om også GPUene samtidig har blitt kraftigere. Når jeg kjører oppgaver som er grafikk-intensive så legger jeg iallefall merke til at CPU-bruken er mindre ved lavere oppløsninger enn ved høyere oppløsninger, f.eks. 640x480 vs. 1200x1024. Det er også gjort en del tester som viser det samme som f.eks. denne:

 

hl2cpuscaling.jpg

 

CPU scaling is clear throughout as the grade at which performance increases is pretty even up until we start to hit the wall at 2.7GHz.  We see at that speed performance begins to level out which could mean that the video card has reached its limit in performance.
Lenke til kommentar

CPU-scalingtesten ovenfor tolker jeg dithen at CPU-belastningen ikke øker noe særlig med økende oppløsning. Hoppet fra 10x7 til 12x10 ved de høyere klokkefrekvensene vil jeg anta skyldes begrensninger i GPU-kapasitet, det er ikke mange skjermkort som yter over 130 fps i HL2 ved 1280x1024 ;)

Endret av jon67
Lenke til kommentar

Skjermkortet får kun beskjed fra CPU om hva slags objekter, teksturer etc det skal tegne. Jo høyere oppløsning, jo flere pixeler blir det å tegne opp. CPU får normalt sett ikke så mye mer å gjøre ved høyere oppløsninger.

 

Jeg har ikke testet dette i nyere spill med mer avanserte fysikkmotorer, men i feks 3dmark03 og 05 så spiller CPU svært liten rolle i forhold til skjermkort når man øker oppløsningen.

Lenke til kommentar
  • 4 uker senere...
Det som overasket meg var forskjellen mellom intel og AMD. I følge denne testen var det ikke mye forskjell på CPUene.

Det henger sammen med at Hardware.no kun testet med en oppløsning på 1024x768, og i så lav oppløsning så representerer ikke CPUen noen flaskehals ettersom GPUen gjør mesteparten av jobben. I høyere oppløsninger, derimot, så blir CPUen stadig viktigere ettersom GPUen da trenger mer "hjelp" hvis du skjønner hva jeg mener.

Beklager Snorreh, det er ikke helt sånn det fungerer. Faktisk er det helt motsatt :)

 

Det er ved lave oppløsninger CPU blir flaskehals ettersom framerate blir høyere. Ved å kjøre høy oppløsning eliminerer man CPU som flaskehals så mye som mulig, og legger mer last på skjermkortet.

Det er ikke min erfaring iallefall, sett bort ifra driver-optimaliseringer o.l. NVIDIA har pålagt CPUen flere oppgaver i sine drivere nå enn tidligere, selv om også GPUene samtidig har blitt kraftigere. Når jeg kjører oppgaver som er grafikk-intensive så legger jeg iallefall merke til at CPU-bruken er mindre ved lavere oppløsninger enn ved høyere oppløsninger, f.eks. 640x480 vs. 1200x1024. Det er også gjort en del tester som viser det samme som f.eks. denne:

 

http://www.amdzone.com/pics/gaming/halflif...2cpuscaling.jpg

 

CPU scaling is clear throughout as the grade at which performance increases is pretty even up until we start to hit the wall at 2.7GHz.  We see at that speed performance begins to level out which could mean that the video card has reached its limit in performance.

Det bildet der viser jo at CPU er flaskehalsen. Klokker man CPU litt raskere så går spillet raskere. Ergo: CPU er flaskehals.

 

Testen viser også at hvis man lar GPU jobbe hardere (ved å øke oppløsningen) så går ikke det ut over ytelsen. Dvs. at GPU er underarbeidet i utgangspunktet og har kapasitet nok til å ta unna litt ekstra arbeid (rendre flere pixler).

 

Det er kun på så høy oppløsning som 1280x1024 at grafikkortet begynner så smått å bremse litt. (Renderingkapasiteten til GPU stanger litt i taket i enkelte øyeblikk). På 1600x1200 ville nok dette blitt tydeligere med en linje som går noe under den røde.

 

CPU rendrer uansett ingen pixler, det er det kun GPU som tar seg av. Jo flere pixler jo mer arbeid for skjermkortet. CPU får ikke mer arbeid av at skjermkortet med rendre flere pixler. CPU arbeider med halt andre ting enn rendering. CPU tar seg blandt annet av A.I., fysikk, bevegelser, interaksjon med andre spillere (nettverskspill) og slikt.

Endret av Simen1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...