Gå til innhold

G80 og R600, hva vet vi?


Anbefalte innlegg

Videoannonse
Annonse

Arrester meg om jeg repeterer andre her eller tar feil, men mener jeg har lest at xtx kortene med gddr4 ram ble holdt tilbake fordi gddr4 rammen var så dårlig (i forhold til prisen) at xt kortene med gddr3 minne slo xtx kortene i en god del tester.

Endret av -LIKMARK-
Lenke til kommentar
Arrester meg om jeg repeterer andre her eller tar feil, men mener jeg har lest at xtx kortene med gddr4 ram ble holdt tilbake fordi gddr4 rammen var så dårlig (i forhold til prisen) at xt kortene med gddr3 minne slo xtx kortene i en god del tester.

8474820[/snapback]

Nei, men GDDR4 er dyrere, og tilgjengligheten er enda ikke så god som GDDR3 minne...

 

Det er en av grunnene til at nVidia ikke har valgt å bruke det på 8800GTX/Ultra

Lenke til kommentar
Som jeg tenkte meg, ante ugler i mosen hele veien. Men nå vet jeg ikke hvor korrekt dette er enda. (for ATI nevnte jo først at dette vare en form for strategi, tror det var tidligere i denne posten)

8474827[/snapback]

Dette er det som for meg mest betenkt:

The benchmarks DailyTech performed yesterday utilized release candidate drivers. Today's tests used retail drivers ATI released to its board partners.

 

Det vil altså si at de har testet med driveren som skal shippes med 2900-kortene, ikke noen suspekt beta-driver...

Lenke til kommentar

Men det er jo tydeligvis noe veldig galt med xtx kortet som testes, siden det yter dårligere enn xt kortet jevnt over.

 

Kan jo kanskje tenkes at de har fått tak i ett tidlig kort elelr noe slik. Kanskje ett slikt kort som var årsaken til at kortene ble utsatt. Jeg vet ikke jeg, men det virker jo rart at ekstra minne på kortet og høyere frekvens (selv om det ikke var mye) skal yte dårligere.

 

Men hvis det ser slik ut som det er nå, så er det vel bare å håpe at de satser på å selge xt kortene billig, slik at vi får mye for hver krone.

Lenke til kommentar
Men det er jo tydeligvis noe veldig galt med xtx kortet som testes, siden det yter dårligere enn xt kortet jevnt over.

 

Kan jo kanskje tenkes at de har fått tak i ett tidlig kort elelr noe slik. Kanskje ett slikt kort som var årsaken til at kortene ble utsatt. Jeg vet ikke jeg, men det virker jo rart at ekstra minne på kortet og høyere frekvens (selv om det ikke var mye) skal yte dårligere.

8475044[/snapback]

Høyst sannsynlig så tester de review-sample kortet til AnandTech

 

Klokkefrekvensen på XTX er jo bare 5MHz høyere enn på XT, og minnet er klokket 200MHz høyere, men med den båndbredden ATi har til minnet (512-bit) så spiller ikke de 200MHz noen rolle.

 

Hovedforskjellen på XT og XTX er jo hovedsakelig minnemengden ifølge DailyTech. Det er nok en av grunnene til at det ikke kommer til å være særlig med XTX kort i imolø i starten:

Two independent ATI board builders told DailyTech that Radeon HD 2900 XTX will not be a part of their initial portfolios.
Lenke til kommentar

Info om DailyTech sine instillinger på spillene:

 

Company of Heroes - High shader quality, High model quality, Anti-aliasing enabled (in game), Ultra texture quality, high quality shadows, high quality reflections, Post processing On, High building detail, High physics, high tree quality, High terrain detail, Ultra effects fidelity, Ultra effects density, Object scarring enabled and the model detail slider all the way to the right.

 

F.E.A.R. - 4x FSAA (in game), maximum light details, shadows enabled, maximum shadow details, soft shadows enabled, 16x anisotropic filtering, maximum texture resolution, maximum videos, maximum shader quality.

 

Half Life 2: Episode 1 - High model detail, high texture detail, high shader detail, reflect all water details, high shadow detail, 4x multi-sample AA (in-game), 16x anisotropic filtering, v-sync disabled, full high-dynamic range.

 

Elder Scrolls IV Oblivion – Preset ultra quality settings. The scene used was where you’re at the end of the tunnel and run outside for a little bit.

Lenke til kommentar

Jeg finner det også vanskeligt å tro at dette kan stemme. R600 kan da ikke være så mye dårligere enn G80? Trodde egentlig at G80 måtte se seg tapt mot kampen for R600. Nå er jo dailytech et, som jeg vil se en seriøs side så for meg så må disse testene stemme.

 

Men hvis det har seg så at GTX knuser R600 så kan vi jo se på historikken.

 

5 Nov - 8800GTX kommer på markedet og overtar ytelsetronen med stor magin.

14 Mai - Et halv år etter kommer ATi med sitt flaggskip, som ikke viser seg å være noe bedre enn 8800 GTX selv etter et halv år med forbedringer.

 

 

Vet ikke om dere men jeg ser stolt av Nvidia for å levere varene :thumbup:

 

Men igjen så er jeg usikker på om denne testen stemmer, fordi på papiret så er jo R600 mye bedre enn G80, hva er hemmeligheten til Nvidia? Kanskje ATi har satset på feil teknologi? At Nvidia har funnet flaskehalsen innen skjermkort teknologi å forbedret den? Ser for meg at rett før lansering så kommer det ut at testene har vært "fake" og at 2900 XT er mye bedre :p men det hadde jo vært en meget feil måte å markedsføre et produkt på. Desutten har jo alle testene vi har sitt på nett, ikke imponert oss. Selv om det har vært så mange uoffesiele så kan da ikke alle ta feil?

 

Jaja, enda noen uker til 2900 kommer da...vi for vente å se.

 

 

 

Pluss, dette er jo kun DX9 spill da :)

Endret av Bahamut
Lenke til kommentar

Dette var noe suspekt, ja. Det kan vel ikke vært så dårlig stilt vel? Greit nok at de har hatt problemer, men om de leverer et topp-produkt som yter så skralt i forhold til et halvt år gammelt kort fra nVidia, så skjønner jeg ikke helt hva de holder på med. Men avventer heller resultater for lanseringsdagen jeg.

Lenke til kommentar

Ser ut som nVidia traff spikeren bedre på hodet med sin arkitektur, ihvertfall for DX9 og det er ikke noe et halvt år med tweaking kunne ha gjordt noe med.

R600 skal dog visnok ha en del bedre geometry shader ytelse og den enorme båndbredden kan komme godt til når vertex data båndbredden øker med DX10 spill. Men disse fordelene vil nok komme til syne så seint og sakte at det neppe er noe å basere et kjøp på.

Lenke til kommentar
2900XT og XTX yter jo så og sei identisk på denne dailytech testen, noe som lukte uferdige drivere eller noe annet susk? Om ikkje har ATI brunt laaangt oppå begge leggane ja...

Gidder ingen å lese kilden? Det som skiller XT og XTX utenom at XTX har 1GB ram er 5MHz i kjernefrekvens og 200MHz i minnefrekvens

 

 

ATI said in front of 150+ journalists that R600XT won't be able to compete with Geforce 8800 GTX. The dream is dead and Radeon HD 2900 XT won't be able to catch up with the six month old Geforce 8800 GTX

The dream that AMD can do something and return as the high end market leader is gone. R600 rails against G80. Congratulations Nvidia.

Siste sladder fra "Se & Hør 2" (aka Fudzilla)

http://www.fudzilla.com/index.php?option=c...d=703&Itemid=34

 

Passer dårlig med nVidia sine plalagte priskutt på G80-serien...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...