Merlin Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Dersom du hadde lest andre poster av meg, ville du se at jeg har planer om gå til annskaffelse av et X800 XT Bryr jeg meg?, nei. Skal du lage et poeng: I så fall et dårlig et. Derfor trengst det noen som forsvarer "the darkside" Og hvem side er det snakk om? Så ikke kom her å kall meg en "NVIDIOT". Det er slike poster som dette som gjør at jeg føler at forumet er oversvømmt av små skolejenter. Gratulerer og velkommen til verden, jeg føler med deg. Du tåler tydeligvis ikke konstruktiv kritikk, og du vil ikke få min respekt før du slutter med post som dette og klarer å komme opp med noe konstruktivt selv. (anntall poster teller ikke en dritt i min bok. Heller kvalitet fremfor kvantitet.) Har jeg sagt noe om antall poster? Svar: NEI. Beklager den kvasse posten. Men ett så usakelig angrep på meg, vil få ett sakelig angrep tilbake. Synes ikke det var så saklig jeg. jeg klarte ikke å dy meg. Ikke jeg heller. Men on topic: R420 er best av de to Lenke til kommentar
Merlin Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Det kan hende at han er, og det trengs på dette forumet, det er jo fult av ATi gutter (inklusive deg Kjøper det som er best jeg, akkurat nå er det ATI Lenke til kommentar
LilleG Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Og du er tydeligvis en av dem (NVIDIOT) Kids kids kids. Lenke til kommentar
Vo0do0 Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Merlin: Nei, skulle ikke lage poeng. Bare stattuere fakta. Resten av svaret ditt gidder jeg ikke ta meg tid til å svare på... Lenke til kommentar
Kingy Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Raptor,29/05/2004 : 13:59] ATi er minst like "dirty" som nVidia med optimaliseringer i driverene! niks, nvidia sitter fremdeles på tronen i det departementet. , husker enda tilbake til da nvidia fusket i 3d mark. Da husker du kanskje at futuremark selv godkjennte de driverene, og gikk offentlig ut og sa at de var klar over visse optimaliseringer, men at dette ga nVidia en mer realistisk score? Btw, ATI fusket også i 3dm03 Mener å huske det ja, nemlig at en god del hardware sider på nett, mente at nVidia hadde presset Futuremark til å komme med den uttalelsen. men la oss for all del ikke gjøre dette til nok en vs topic. vi lar det ligge med at både Ati og nVidia har drevet med "juks". Lenke til kommentar
HKS Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Kjøper det som er best jeg, akkurat nå er det ATI Hvis jeg kjøper noe så kjøper jeg NY teknologi, og det er ikke R420, greit, R300 var en kjempegod arkitektur, og du kan sikkert presse mer ut av den og, men jeg gir ikke over tre tusen kroner for det! Jeg kjøper heller ikke grafikkort hver gang det kommer noe nytt. Bruker et Matrox Parhelia nå, skal ha nytt iløpet av sommeren, og det blir høsy sannsynlig et NV40 kort, grunner - Støtte for SM 3.0, kommer sikkert spill som støtter dette før neste gang jeg kjøper kort - Støtte for dual-dvi (trenger det da jeg har to LCD skjermker) Det hører også med til historien at max oppløsning på en mine 19" LCD skjermer er 1280x1024, og det har NV 40 mer enn nok power til! Lenke til kommentar
Robin B Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 The force from the fan boys is strong in here. Lenke til kommentar
Nikkor Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 The force from the fan boys is strong in here. Du tuller! *oppgitt* Lenke til kommentar
~Dj.Diablo~ Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Merlin noe mer usakelig person har jeg aldri møtt på forumet, jeg ville ikke vært forbaust om du poster mest i søppel. Det du sier (spammer) her i posten er: Ati er best Ati vil alltid være best Jeg har det beste som er Ati En annen ting å tenke på er Geforce 4 serien som var en sinnsyk suksess, og det er de samme som står bak 6 serien! Lenke til kommentar
TDK Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Denne tråden har jo utviklet seg til en ren ATI vs nVidia masssakre! Min mening: Jeg har lest alle mulige tester jeg kunne finne av NV40 vs R420 og har kommet ut med at R420 (X800XT PE) totalt har kommet best ut. Derfor kjøper jeg det. Jeg lever nå'et og driter i hva slags ytelse kortene får etter nye drivere som kommer en eller annen gang. Lenke til kommentar
Coffie=JavaCode Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Merlin tror ikke du akkurat kommer til å få så mye kredibilitet. Du er en fanatisk person, som for en eller annen grund fått dilla på en skjermkort produsent. Ut i fra postene skulle man tro at Nvidia har massakrert familien din, for så å sende deg til sibir i noen år. Mens ATI er mesias. Ut i fra testingen sålangt er det ikke blitt kåret en overlegen vinner. Lenke til kommentar
MistaPi Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Neppe så mye, men det vil nok bli endel forbedringer, siden NV40 er en nye arkitektur, det er ikke R420. Det betyr ikke at NV40 er overlegent R420. nVidia trengte sårt en helt ny arkitektur, det gjorde ikke ATi. Men vi kan vente oss en endel forbedringer også med r420. As for the X800 series, it's getting a lot of its upcoming performance benefits from our work in optimizing the memory controller. We've got a huge amount of flexibility in how it can be programmed and used, and we've just scratched the surface (the state space is huge, and it will take some time to come up with optimal cases). People can expect significant (>>10%) performance increases, esp for AA. Når spill og programmer kommer med støtte for Shadder Model 3.0 vil det bli enda mer, da må ATi kortet kjøre mange flere "passes" for å eksekvere en shadder instruksjon. Mange flere passes? Dagens DX9 spill bruker ganske få PS instruksjoner, rundt 30 hvis jeg ikke husker feil, X800 har støtte for 1536 instruksjoner per pass (fra R300 64+32), så det er mye og gå på før man trenger å kjøre flere passes. Det er heller ikke realistisk å kjøre så mange instruksjoner på store deler av bildet med akseptabel framrate. På e3 ble farcry vist kjørende med dx9c path (PS 3.0) på et 6800U kort. Og det så vist evig mye råere ut enn det gjør på x800 korta. Har du sett den samme demostrasjonen på X800? Btw, dersom dere ser på bildesammenlignigene av pirates of the carribean, så er det tydelig kvalitets forskjell der. På bakken/sanden i nedre del av bildet. Er det en pluttselig over gang fra skarp til blury på ati kortet, mens på nvidia fader det ut.... Ser ut som X800 kjører ren bilinear her, hva grunnen til det er blir bare spekulering. Var det ikke akkuratt dette det var snakk om når det ble diskutert ati IQ cheating for litt siden? Nope. ATi har jo nettopp også kommet med en tvilsom optimalisering med hensyn på AF i driverene sine, og det værste var at de sendte ut mail til alle som testa kortet demmes med instruksjoner på å slå av nVidia sine optimaliseringer, og de har fjærnet mulighetene til å slå av sine egne! nVidia sin "trilinear optimalisering" er en statisk metode som gir dårligere filtering for bedre ytelse. ATi sin metode er adaptive som ikke gir synlig dårligere kvalitet. Da husker du kanskje at futuremark selv godkjennte de driverene, og gikk offentlig ut og sa at de var klar over visse optimaliseringer, men at dette ga nVidia en mer realistisk score? Dette var vel før Futuremark begynte å godkjenne drivere? Endret ikke Futuremark kun utsagnet om juks til optimalisering (grovt sett)? Futuremark har ihvertfall i senere tid ikke godkjent slike optimaliseringer i 3DMark03. Det er forsatt kun FW 52.16 som er godkjent av Futuremark for GeForce3, GeForce4Ti og GeForceFX. 60.72 driveren er kun godkjent for GF 6800. Btw, ATI fusket også i 3dm03 Det er også et spørsmål om graden av juks IMO. Lenke til kommentar
Robin B Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 (endret) Kan vel nevne at da NV40 ble kjørt med Sm3 støtte i Far cry så fikk personen som testet det en følelse av at Fps lå på 20 tallet. http://www.nvnews.net/vbulletin/showthread.php?t=28772 Af was set at 1.. resolution i believe was 1280x1024. If I had to take a guess at the fps, I would say 25 average. I would assume it is kinda low because of the AA, since Farcry seems to take a fairly large hit when AA is used... the only way i knew it was 4xaa is because that is what it was set at in the game options. All the game options were at very high, and the water at ultra high. The shadow casted from the trees looked really good.. they moved as the trees moved, the whole environment looked better. There was a buggy also present, I took a quick look at the buggy, and it seems to look the same as the buggy on my system. The only real difference I could notice were the shadows, and the gravel/sand. Endret 29. mai 2004 av Robin B Lenke til kommentar
Kingy Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Raptor' date='29/05/2004 : 15:43'] Kjøper det som er best jeg, akkurat nå er det ATI Hvis jeg kjøper noe så kjøper jeg NY teknologi, og det er ikke R420, greit, R300 var en kjempegod arkitektur, og du kan sikkert presse mer ut av den og, men jeg gir ikke over tre tusen kroner for det! Jeg kjøper heller ikke grafikkort hver gang det kommer noe nytt. Bruker et Matrox Parhelia nå, skal ha nytt iløpet av sommeren, og det blir høsy sannsynlig et NV40 kort, grunner - Støtte for SM 3.0, kommer sikkert spill som støtter dette før neste gang jeg kjøper kort - Støtte for dual-dvi (trenger det da jeg har to LCD skjermker) Det hører også med til historien at max oppløsning på en mine 19" LCD skjermer er 1280x1024, og det har NV 40 mer enn nok power til! veldig bra poeng der. helt enig Lenke til kommentar
alfern Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 (endret) Det som skremmer meg litt er hvordan det fokuseres på poengresultater i 3dmark når dere sammenligner kort. Om et kort får 200 poeng mer enn det andre er det likegyldig for meg. For at jeg skal kunne ta et standpunkt til hvilket kort jeg synes er best, må jeg først prøve begge kortene i praksis. I mine øyne er det det kortet som gir meg den beste spillopplevelsen som er vinneren, og det er ikke nødvendigvis det kortet som gir best score i 3dmark. Dette teller for meg: 1) Fargedybde 2) Minst mulig dropp i framerate 3) Smoothness og detaljnivå i bildet 4) Driverkompabilitet ( 5) Varmeutvikling og hvor mye plass kortet tar ) Det beste verktøyet for å fange dette er øynene som ser. Edit: Rekkefølgen over er tilfeldig Endret 29. mai 2004 av alfern Lenke til kommentar
TDK Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 (endret) Kan vel nevne at da NV40 ble kjørt med Sm3 støtte i Far cry så fikk personen som testet det en følelse av at Fps lå på 20 tallet. http://www.nvnews.net/vbulletin/showthread.php?t=28772 Af was set at 1.. resolution i believe was 1280x1024. If I had to take a guess at the fps, I would say 25 average. I would assume it is kinda low because of the AA, since Farcry seems to take a fairly large hit when AA is used... the only way i knew it was 4xaa is because that is what it was set at in the game options. All the game options were at very high, and the water at ultra high. The shadow casted from the trees looked really good.. they moved as the trees moved, the whole environment looked better. There was a buggy also present, I took a quick look at the buggy, and it seems to look the same as the buggy on my system. The only real difference I could notice were the shadows, and the gravel/sand. Etter de testene jeg har lest av X800XT PE klarer det og kjøre Far Cry med 1600/1200 medium AF (4X) og full AA med average fps på 35,7. Hvis da spillet lå på rundt 25 med 1280/1024 med 4x af må jeg si at 6800 ultra henger litt etter i far cry. Dette er bare noe jeg slenger ut i lufta og ikke stift meg til veggen for det.... robin B, den linken din til det forumet. Der sier jo alle at det ser så mye bedre ut? PS 3.0 gir jo ikke bedre bildekvalitet? eller? jeg trodde det bare ga bedre ytelse? (noe nVidia sier? om det stemmer aner jeg ikke) Folka der påstår også at 6800ultra banker X800XT PE i 3dmark03 dx9 testene! etter hva jeg har forstått er det bare test 4-nature som er dx9? Isåfall knuser jo ATI nVidia kortene i test 4. mens nVidia slår ati i alle de andre testene. Likevel får XT PE og ultra like høye scorer. Endret 29. mai 2004 av TDK Lenke til kommentar
Robin B Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Jepp de mener det ser bedre ut, men husker jeg ikke feil så var det en demo av Far Cry med noen brett som ikke eksisterer i spillet. Lenke til kommentar
TDK Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Hvordan i huleste kan det se bedre ut når ps3.0 bare er en ytelsesforskjell (?) bedre enn ps2.0? Lenke til kommentar
Robin B Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Som jeg sa så tror jeg det var en demo som ble brukt og som ikke finnes i spillet, da er det helt klart at det kan se bedre ut når det ble brukt til å demonstrere NV40. Lenke til kommentar
TDK Skrevet 29. mai 2004 Del Skrevet 29. mai 2004 Du mener at nVidia har fått lagd seg en egen demo og fått crytek til å få den til og se bedre ut for og få far cry fanatikerer til og kjøpe kortene sine? Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå