Gå til innhold

Nytt skjermkort, men hvilket?


Christian.

Anbefalte innlegg

Raptor' date='12/02/2005 : 19:12']
ATI har noe som heter 3Dc, blir bl.a. brukt i HL2. Vil ikke si at 6800 er mer framtidsrettet. Her råder jeg trådstarter til å lese tester (IKKE se på syntetiske benchmarks) for så å finne ut hvilket kort som passer hans behov og lommebok best.

3Dc ja... Tviler det kommer til å slå noe særlig ann. Det er en properitær ATi standard. Det ble skrytet av at HL2 kom til å bli sååå mye bedre med ATi kort på grunn av 3Dc, men det har vi ikke sett noe til enda iallefall. Gir på lik linje med shader model 3 en grei ytelsesøkning flere steder...

 

MistaPi, du som er så inne i ATi... Brukes 3Dc i HL2?

 

Sorce motoren til HL2 støtter iallefall shader model 3.0. Hadde vært morro hvis Value hadde sluppet en patch med sm 3.0 støtte, men det kommer vel neppe før ATi slipper sm 3.0 hardware. Foreløpig støtter vel bare HL2 ATi sin properitære standard sm 2.0b

Tja, men skal man se slik på det, så kan man også si at SM3.0 nesten ikke brukes i noen spill. Poenget var at NVIDIA ikke er så mye mer framtidsrettet enn hva ATI er. Tviler på at du om noen år kan sitte å si "Ja jøss. Jammen glad jeg valgte GeForce-kortet".

 

Den dagen X800 er utdatert er også 6800 det. Kjøp det som passer best i dag, ikke for det som passer best om et år eller to. Som jeg sa tidligere, sammelign benchmarks for å finne det kortet som passer best til akkurat ditt behov.

 

Husker tilbake da alle ga 3dfx pepper for ikke å støtte 32-bit slik som TNT2 gjorde. Det viste seg jo at TNT2 ikke var kraftig nok til å gjøre noe spektakulært med 32-bit uansett.

Lenke til kommentar
Videoannonse
Annonse
Leste litt mer om kortene nå så står det ''350Watt or greater Power Supply'' Hvor mye kan jeg ha tilkoblet den da? har 350W selv og 5HDD'er + En DVD + Diskett og en Viftekontroll..

Spørs hvem som har laget PSUen. Det finnes gode og det finnes dårlige PSUer.

 

Stol ikke blindt på oppgitt Watt.

Lenke til kommentar
altså ikke kom med 3dmark 05....gir blaffen om ati er bedre der eller ikke....er spill som teller....

Det er sjelden (aldri?) spill i dag er geometry begrenset med disse kortene, så derfor må vi ty til syntetiske tester.

3DMark03 viste oss at GeForceFX hadde en tvilsom shader ytelse lenge før det var DX9 spill ute på markedet, så disse testene har sin nytteverdi.

 

og i følge de testene jeg har lest så er 6800 korta bedre x800 korta

Javel, deg om det. Men jeg vil tro at flertallet som er litt inne dette er enig i at X8x0XT (PE), om ikke mye, trekker det lengste strået med høy oppløsning og AA/AF. Denne fordelen vil jeg tro vil øke med at spill blir mer PS/fillrate begrenset.

 

ehm...så lenge 6800 serien har SM 3.0 og ati ikke, så er jo nvidia mer fremtidsrettet....når et kort har nyere teknologi en et annet, så er jo det bedre...det er jo egentlig ikke noe å diskutere....men om man velger ati kort, så er det ikke noe galt i det...ati lager bra kort...men de bruker ikke den nyeste teknologien enda. sånn er det bare.

Det er ikke kun featuresetet som avgjør om et kort er mer fremtidsrettet enn et annet. Per din definasjon var/er GeForceFX5900 mer fremtidsrettet enn R9800, men det ble nå ikke helt tilfelle. Og hva vet du om at SM3.0 blir mer viktig for denne generasjons kort enn 3Dc?

 

3Dc ja... Tviler det kommer til å slå noe særlig ann. Det er en properitær ATi standard. Det ble skrytet av at HL2 kom til å bli sååå mye bedre med ATi kort på grunn av 3Dc, men det har vi ikke sett noe til enda iallefall. Gir på lik linje med shader model 3 en grei ytelsesøkning flere steder...

Det kan også brukes til å gi mer detaljerte normal maps uten ytelse tap. Det er flere spill som er annonsert med 3Dc støtte og noen av disse er allerede ute og med Xbox2 (som sikkert også vil støtte 3Dc) vil dette bli mer attraktivt å bruke for spill utviklerene.

Dette er også en åpen standard så det er ikke noe i veien for at f.eks nVidia kan implentere dette i deres fremtidige chiper.

 

MistaPi, du som er så inne i ATi... Brukes 3Dc i HL2?

Nei, dette ble nok kastet bort for å få spillet ut døra. Det ble dog sagt at dem skulle komme med noen veldig høyt detaljerte levels senere som dem referete til som "ATi levels", det er trolig her 3Dc skulle bli brukt. Men dette begynner å bli en stund siden nå.

 

Source motoren til HL2 støtter iallefall shader model 3.0. Hadde vært morro hvis Value hadde sluppet en patch med sm 3.0 støtte, men det kommer vel neppe før ATi slipper sm 3.0 hardware. Foreløpig støtter vel bare HL2 ATi sin properitære standard sm 2.0b

PS2.0b støttes av både GeForceFX og GeForce 6x00, men dette kom heller ikke med i HL2. Det er uansett langt ifra sikkert HL2 ville hatt noe nytte av det, langt mindre SM3.0.

Endret av MistaPi
Lenke til kommentar

3D Mark er en bullshit-test og jeg håper folk bare kan slutte å bruke den snart.

Ta f.eks en PC med et X800-kort og en Celeron 1,7 GHz. Denne PCen ville fått utrolig bra score sett i forhold til den faktiske ytelsen. 3D Mark legger alt for lite vekt på CPU til at den i det hele tatt kan være i nærheten av brukelig.

 

Jeg blir også mer og mer skeptisk til optimaliseringen som foregår fra ATI og NVIDIAs side. F.eks hadde den nye Catalyst-driveren en relesase note der et av punktene var økt ytelse i 3D Mark. Hvorfor ikke bruke tiden til å optimalisere faktiske spill?

 

Jeg håper virkelig virkelig ikke at noen kjøper skjermkortet sitt ut ifra at f.eks X800XT PE er det beste i 3D Mark. Kjøp heller kort ut ifra at ATI er best i de fleste DirectX-spill, mens NVIDIA dominerer OpenGL.

 

Personlig så synes jeg de nye kortene yter så likt i nesten alt, at det er strømforbruk og pris som er avgjørende for meg.

Lenke til kommentar
3D Mark er en bullshit-test og jeg håper folk bare kan slutte å bruke den snart.

Ta f.eks en PC med et X800-kort og en Celeron 1,7 GHz. Denne PCen ville fått utrolig bra score sett i forhold til den faktiske ytelsen. 3D Mark legger alt for lite vekt på CPU til at den i det hele tatt kan være i nærheten av brukelig.

3DMark er en skjermkort test, det er da bra at den stresser nettopp skjermkortet. Det at den fort kan gi et veldig feil bilde av hvordan forskjellige systemer yter i dagens spill gjør den ikke ubruklig. Nå har dog 3DMark2001 og tildels 03 blitt ganske CPU begrenset med tiden.

Men hvor stor nytteverdi det har kan helt klart diskuteres og det er ganske omdiskutert også blant "eliten".

 

Jeg blir også mer og mer skeptisk til optimaliseringen som foregår fra ATI og NVIDIAs side. F.eks hadde den nye Catalyst-driveren en relesase note der et av punktene var økt ytelse i 3D Mark. Hvorfor ikke bruke tiden til å optimalisere faktiske spill?

Dem nevner 3DMark som et eksempel der ytelsen har blitt bedre. Dem ville ikke ha spesisert en 3DMark05 spesifkk optimalisering (noe som er juks) i release noten. Dessuten tester nå Futuremark driverene og lister de godkjente opp på web siden dems.

http://www.futuremark.com/community/drivers/?approved

Endret av MistaPi
Lenke til kommentar

"Selv om vi dessverre ikke hadde et GeForce 6800GT til disposisjon, som dette Radeon X800 Pro-kortet konkurrerer mot, kan vi uansett konkludere med at Radeon X800 Pro er et ekstremt bra kort. Kortet tilbyr fantastisk ytelse i dagens spill og er rimelig fremtidsrettet med sin knallsterke DirectX 9-ytelse. I tillegg byr kortet på en fantastisk bildekvalitet og enormt god Anti-Aliasing / Anisotropic Filtering bildekvalitet kombinert med god ytelse."

 

Tror egentlig x800pro og 6800GT ikke er så langt ifra hverandre som noen vill ha det til.

Lenke til kommentar
"Selv om vi dessverre ikke hadde et GeForce 6800GT til disposisjon, som dette Radeon X800 Pro-kortet konkurrerer mot, kan vi uansett konkludere med at Radeon X800 Pro er et ekstremt bra kort. Kortet tilbyr fantastisk ytelse i dagens spill og er rimelig fremtidsrettet med sin knallsterke DirectX 9-ytelse. I tillegg byr kortet på en fantastisk bildekvalitet og enormt god Anti-Aliasing / Anisotropic Filtering bildekvalitet kombinert med god ytelse."

 

Tror egentlig x800pro og 6800GT ikke er så langt ifra hverandre som noen vill ha det til.

Ganske riktig. [H]ard|OCP har f.eks testet X800Pro.

The chart above explains well how the cards stack up. The VisionTek X800Pro and GeForce 6800Ultra come through our evaluation pretty much at a dead heat with a slight margin falling to the VisionTek X800Pro.

Lenke til kommentar
ehm...så lenge 6800 serien har SM 3.0 og ati ikke, så er jo nvidia mer fremtidsrettet....når et kort har nyere teknologi en et annet, så er jo det bedre...det er jo egentlig ikke noe å diskutere....men om man velger ati kort, så er det ikke noe galt i det...ati lager bra kort...men de bruker ikke den nyeste teknologien enda. sånn er det bare.

Det er ikke kun featuresetet som avgjør om et kort er mer fremtidsrettet enn et annet. Per din definasjon var/er GeForceFX5900 mer fremtidsrettet enn R9800, men det ble nå ikke helt tilfelle. Og hva vet du om at SM3.0 blir mer viktig for denne generasjons kort enn 3Dc?

 

fordi SM 3.0 er mer utbredt...er ingen som har hørt om 3dc nesten....sm 3.0 er en directx standard...og de fleste nye spill som blir produsert nå for tiden vil nok støtte sm 3.0. og nei har det har ikke altid bare med arkitektur å gjøre...men akkuratt nå så har nvidia en fordel der...ser egentlig ikke vitsen å diskutere det her en gang....vi får bare se når ati kommer med sin nye brikke, den skal vist støtte sm 3.0. da kan vi begynne å samenligne igjen.

Lenke til kommentar
fordi SM 3.0 er mer utbredt...er ingen som har hørt om 3dc nesten....sm 3.0 er en directx standard...og de fleste nye spill som blir produsert nå for tiden vil nok støtte sm 3.0. og nei har det har ikke altid bare med arkitektur å gjøre...men akkuratt nå så har nvidia en fordel der...ser egentlig ikke vitsen å diskutere det her en gang....vi får bare se når ati kommer med sin nye brikke, den skal vist støtte sm 3.0. da kan vi begynne å samenligne igjen.

Det er sikker ikke mange som har hørt om S3TC eller normal maping heller, hva har dette med saken å gjøre? Det er vel ikke PR verdien vi diskuterer her?

Det er nå angivelig tre spill ute på markedet som støtter 3Dc, mao samme antall spill som støtter SM3.0 og lista over fremtidige spill som vil støtte SM3.0 er ikke så mye lenger enn lista over spill som vil støtte 3Dc.

Det vil utvilsomt bli flere spill med SM3.0 enn 3Dc støtte, men det betyr ikke nødvendigvis at det vil bli viktigere for denne generasjonen kort. Normal maping er veldig utbredt brukt allerede idag og dette er noe som spiser opp masse båndbredde og minne, noe Doom3 er et bra eksempel på. 3Dc vil ganske effektivt bekjempe begge disse problemene. Hvilken reel nytte har SM3.0 for denne generasjonen? Nvidia anbefaler utviklerene å styre unna SM3.0 branching siden det går hardt utover ytelsen med NV4x og geometry instancing har vist seg å være mulig med SM2.0. SM3.0 kan helt klart utføre mange flere instruksjoner per pass, men når spill virkelig begynner å ta nytte av dette, vil jeg tro selv 6800Ultra vil være veldig low end.

Jeg påstår ikke bastant at 3Dc vil bli mer nyttig for denne generasjonen, det kan jeg ikke svare på, men jeg tviler sterkt på at du heller har alle forutsettningene for å kunne svare på dette.

 

GF6800 har en arkitekturmessig fordel med bedre featureset, men dette førte til en ulempe med lav klokkehastighet. 6800 er forøvrig mer effektiv per clock, men hvis du ser på X800XL og 6800Ultra så er ikke ultra kortet, selv med høyere minnebåndbredde, langt raskere, ihvertfall ikke noe som skulle tilsi at den er raskere enn en 540Mhz R480.

 

Hvilkne av disse kortene som er mest fremtidsrettet gjenstår å se. Det er ikke så enkelt som det du gir inntrykk for.

Endret av MistaPi
Lenke til kommentar

x800 Pro VIVO kan flashes til x800 xt PE (har en romkamerat som gjorde det) sapphire sin versjon koster ca. 3450kr. hos PCutstyr.no. husk at garantien kanskje går hvis du gjør det da

 

(kjøper du dette får du med POP: sands of time og Tomb raider: angel of darkness)

Lenke til kommentar
x800 Pro VIVO kan flashes til x800 xt PE (har en romkamerat som gjorde det) sapphire sin versjon koster ca. 3450kr. hos PCutstyr.no. husk at garantien kanskje går hvis du gjør det da

 

(kjøper du dette får du med POP: sands of time og Tomb raider: angel of darkness)

Jeg har gjort dette. Funket fint, men har også hørt om mange som det gikk til h....

Lenke til kommentar
Jeg har gjort dette. Funket fint, men har også hørt om mange som det gikk til h....

hadde disse folka noe peiling?? hadde hørt det var ganske lett. hadde dessuten lyst til å gjøre dette selv (når jeg får råd til det)

Jeg brukte ikke lang tid på det. Vet ikke om de andre hadde peiling, jeg så jo ikke på når de flashet.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...