ExcaliBuR Skrevet 10. oktober 2005 Del Skrevet 10. oktober 2005 (endret) DriverHeaven har gjort en liten "vri" når det gjelder med followup artikler virker det som. De har testet et "nedklokket" R520XT mot et klokket G70 med 16x1,8 konfig. Les mer her. Egentlig litt interessant da dette står på hvor effektiv de forskjellige arkitekturene er. Endret 10. oktober 2005 av ExcaliBuR Lenke til kommentar
daniel_984 Skrevet 10. oktober 2005 Del Skrevet 10. oktober 2005 Wow, dette må være en av de første testene jeg har lest hos Driverheaven som ikke senker nVidia til bunns og topper ATi i testene sine... Forøvrig er det jo en interessant test, ettersom den viser et litt overraskende resultat i CS:S (for min del hvertfall). Sier vel egentlig bare hvor mye klokkehastighet har å si.. Lenke til kommentar
Cortinarius rubellus Skrevet 10. oktober 2005 Del Skrevet 10. oktober 2005 spennende å lese, litt artig å lese sånne tester Lenke til kommentar
HKS Skrevet 10. oktober 2005 Del Skrevet 10. oktober 2005 (endret) Artig å se at klokkehastigheten igjen "redder" ATi. Det var bare i shaddere som bruker HDR de var raskere enn nVidia... Så selv om R520 skulle være en så revelusjonerende arkitektur, og bla bla bla... Så slår nVidia de klokke for klokke med lik pipeline konfigurasjon... Skjønner hvorfor ATi pushet 90nm prosess... Det testen også viser er at ATi sin implementasjon av HDR og shader model 3.0 (særlig flow control) er bedre enn nVidia sin, og det skulle bare mangle, da nVidia sin arkitiektur er over 1.5 år gammel (G70=NV40) Edit: Fra konklusjonen til DH: Overall we would have to say that in the tests which really matter today the G70 is the most efficient design and therefore performance leader when both architectures are configured similarly. In more "future proofed" tests the balance swings again and when HDR is used more in games we may well see the R520 performing better overall when the same testing methods are applied. Endret 10. oktober 2005 av [GDI]Raptor Lenke til kommentar
GA Skrevet 10. oktober 2005 Del Skrevet 10. oktober 2005 Virkelig morsom lesing! Dette kan love godt for neste "generasjon" NVIDIA brikker, og det er det som teller for meg, siden jeg ikke har noen planer om å oppgradere fra 6800Ultra i denne omgang! Lenke til kommentar
Frijazz Skrevet 10. oktober 2005 Del Skrevet 10. oktober 2005 En interessant vri på testen. Det går nok minst en runde til før jeg kjøper nytt skjermkort. Er det mulig å lage et skjermkort som er like bra på DirectX og OpenGL? Lenke til kommentar
MistaPi Skrevet 10. oktober 2005 Del Skrevet 10. oktober 2005 (endret) Det ser ut som et ganske lavt ytelse tap for 7800GTX med hele 1/3 av fragment piplinene disablet. Gjør Rivatuner det den skal? Med Doom3 har alltid nVidia hatt en fordel med bedre drivere og ikke minst "dual-engine" ROPs og for VST fikk vel nVidia nylig en boost med spesifikke optimaliseringer. Jeg skulle likt å sett flere spill og ikke minst R420 mot R520 med samme klokkehastighet. Edit: Men hvis resultatene er sammenlignbare er det interessant å se, som en fra Beyond3D forumet har påpekt, at det er kun minnebåndbredden som er blitt jevnet ut. Retail:GTX: 3.2% fillrate advantage XT: 25% bandwidth advantage DH Tests: GTX: 0% fillrate advantage XT: 0% bandwidth advantage Ineffektiv utnyttelse av den nye minnekontrolleren? R420 hadde også en ny minnekontroller (dog ikke en så stor oppgradering som R420->R520) og her fikk dem hentet ut en del ytelse da driverutviklerene ble bedre kjent med den. Endret 10. oktober 2005 av MistaPi Lenke til kommentar
MistaPi Skrevet 11. oktober 2005 Del Skrevet 11. oktober 2005 En annen ting her er at nVidia kjører klokkehastighet på de forskjellige enhetene; Vertex shaderene kjører på høyere hastighet enn fragment pipelinene, så dette blir ikke helt en klokke for klokke sammenligning. Lenke til kommentar
HKS Skrevet 11. oktober 2005 Del Skrevet 11. oktober 2005 En annen ting her er at nVidia kjører klokkehastighet på de forskjellige enhetene; Vertex shaderene kjører på høyere hastighet enn fragment pipelinene, så dette blir ikke helt en klokke for klokke sammenligning. Flisespikking... At enhetene i brikken kan opperere med forskjellige klokkefrekvenser en en av fordelene med nVidia sin arkitektur det. Lenke til kommentar
MistaPi Skrevet 11. oktober 2005 Del Skrevet 11. oktober 2005 Og derfor blir en slik sammenligning problematisk. Hvordan er det flisespikking? Lenke til kommentar
HKS Skrevet 11. oktober 2005 Del Skrevet 11. oktober 2005 Og derfor blir en slik sammenligning problematisk. Hvordan er det flisespikking? Hva med det at x1800XT kortet de tester ant. har 512MM minne mot 7800GTX kortet sine 256MB da? Er det også problematisk? Lenke til kommentar
MistaPi Skrevet 11. oktober 2005 Del Skrevet 11. oktober 2005 Neppe for disse testene, det har isåfall heller minimal betydning. Men et spørsmål er om minnet til X1800XT kjører med høyere latency slik at når dem klokkes likt har G70 en høyere gjennomsnitt båndbredde. Det er mange faktorer her. Lenke til kommentar
Flippo Skrevet 11. oktober 2005 Del Skrevet 11. oktober 2005 (endret) Kul sammenligning, men det blir mye som aa sammenligne en AMD64 mot en Intel P4 paa samme frekvens... AMD64 er laga for aa saktere men mer effektivt mens Intel'n er laga for aa vaere effektiv ved hoy frekvens. Kjoerer du en AMD64 og Intel P4 paa samme hastighet vil Intel tape saa det holder. Saa, sammenligning av ei loesning laga for hoy frekvens mot ei loesning laga for lav frekvens paa samme frekvens = ganske forutsigbart resultat. - Per Christian [Edit: spesifiserte Intel P4 saa jeg slipper sure innlegg om Centrino o.l. :-)] Endret 11. oktober 2005 av Flippo Lenke til kommentar
Wazu Skrevet 11. oktober 2005 Del Skrevet 11. oktober 2005 Bra test, spennende lesning. Og flippo, poenget var jo nettopp å se hvordan de to kortene ville yte når alt var helt likt, for å se hvem som var mest effektive. Det med høy/lav frekvenst på ati kortet har akkurat samme gangbarhet som få/mange pipelines på Nvidia kortet. Lenke til kommentar
mushi Skrevet 11. oktober 2005 Del Skrevet 11. oktober 2005 Syntes dette var et fint bevis på at mhz ikke er alt. Liker at vi får bedre ytelse per mhz, en bare høyere mhz. da blir ting bare varmere og krever monster kjøler. Lenke til kommentar
EasyRaider Skrevet 11. oktober 2005 Del Skrevet 11. oktober 2005 Forsåvidt en interessant test, men en kunne like gjerne bare sammenlikne 7800 GT mot X1800 XL. Og det blir helt feil å utrope NVidia som mest effektiv. Ytelse per klokkesyklus betyr null og niks for sluttbrukerne, de burde holde seg til ytelse i forhold til strømforbruk/varme og pris. Lenke til kommentar
Lucifer89 Skrevet 11. oktober 2005 Del Skrevet 11. oktober 2005 Forsåvidt en interessant test, men en kunne like gjerne bare sammenlikne 7800 GT mot X1800 XL. Og det blir helt feil å utrope NVidia som mest effektiv. Ytelse per klokkesyklus betyr null og niks for sluttbrukerne, de burde holde seg til ytelse i forhold til strømforbruk/varme og pris. dohhh 7800GT er G70 kjernen akkurat som GTX det hadde plitt det samme Lenke til kommentar
MistaPi Skrevet 11. oktober 2005 Del Skrevet 11. oktober 2005 Poenget er at 16 pipes på 500Mhz (X1800XL) og 20 pipes på 400Mhz (7800GT referanse) blir det samme som å disable 8 pipes på 7800GTX og klokke det likt med X1800XT. 7800GT og X1800XL har like høy båndbredde. X1800XL har dog en fordel med høyere geometry rate. Lenke til kommentar
Steinegal Skrevet 12. oktober 2005 Del Skrevet 12. oktober 2005 Enig der arkitekturn er jo forskjellig hvis G70 blir klokket til 625/1500 med 16PPL så spørs det om bildet enda er likt? Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå