Gå til innhold

12 timer igjen til R520/X1800!


daniel_984

Anbefalte innlegg

Skuffende at ATI (for deres del) ikke makter å levere sitt high-end kort samme dag, slik som Nvidia. ATI kommer ikke bare for sent, men high-end kortet deres kan ikke vise til noen drastiske ytelsesforbedringer i forhold til 7800GTX (i mange spilltester på AnandTech kommer faktisk GTX bedre ut, selv om X1800XT er utstyrt med 512 MB. Nvidias 81.82 drivere ble brukt i testene). På toppen av det hele ser det ut til at prisene vil ligge godt over GTXs nivå når de lanseres senere i år.

Lenke til kommentar
Videoannonse
Annonse
Sorry eg bare måtte :!:

Off-T:Hehe, du skulle sett rett etter lanseringen, litt under 100 her inne... ;)

 

On-t: Jeg mener bare, siden man ser så drastiske forskjeller på bl.a. F.E.A.R. på nye/gamle drivere hos nVidia, hvorfor klarer da ikke ATi det samme? De har da hatt rundt 6-7-8 mnd på å skreddersy disse driverne.

 

Prøver ikke være partisk her elns, men blir mildt sagt skuffa over hvordan de har latt hypen gå rundt uberørt, uten kommentarer om hva som er riktig/feil, for så å skyte seg sjøl i foten ved å lansere noe som er dyrere og dårligere... Jeg skjønner det bare ikke... :no: [Edit:] Kanskje ikke dårligere da, men mente dårligere/krone[/edit:]

 

Håper bare nVidia klargjør om de har noen planer i nærmeste framtid, eller om vi rett og slett sitter fast på samme flekken i GPU fronten de neste mnd fram til jul...

Endret av daniel_984
Lenke til kommentar
Herregud, å svanse med HDR+ AA er bare piss. Nesten alle som har skjemkort støtter helt/delvis HDR. Bare snakk om hvor mange ganger "bloom" du har/aktiverer. At dette skal være noe nytt syns jeg er å strekke det litt vel langt. At man ikke kan kjøre AA inn i HDR har veldig mye med programmeringa også (bl.a. "Lost Coast" støtter "full bloom" (16x), men ikke AApå HDR fordi det krevde så sterke grafikk-kort. Tenker både GTX og XT gjør det like bra, eneste forskjellen er vel at GTX er billigere og har bedre mulighet i SLI for høyere oppløsninger enn XFire.

 

For å putte det litt på spissen så høres nesten du ut som en fanboi hvis du påstår at ATi har klemt ifra nVidia denna runda her...

Bare piss? :roll: HL2 Lost Coast sin metode støtter AA med HDR da den bruker INT16, men uten blending og så lav presisjon er dette en metode som vil bli lite brukt. Med X1K har man FP blending med MSAA støtte der man ganske enkelt kan enable AA for den "skikkelige" HDR metoden. Dette er en "killer feature" etter min mening. Det gjenstår dog å se hvor stor ytelsetapet er i praksis. HDR er forøvrig mer enn bloom.

Lenke til kommentar
Herregud, å svanse med HDR+ AA er bare piss. Nesten alle som har skjemkort støtter helt/delvis HDR. Bare snakk om hvor mange ganger "bloom" du har/aktiverer. At dette skal være noe nytt syns jeg er å strekke det litt vel langt. At man ikke kan kjøre AA inn i HDR har veldig mye med programmeringa også (bl.a. "Lost Coast" støtter "full bloom" (16x), men ikke AApå HDR fordi det krevde så sterke grafikk-kort. Tenker både GTX og XT gjør det like bra, eneste forskjellen er vel at GTX er billigere og har bedre mulighet i SLI for høyere oppløsninger enn XFire.

 

For å putte det litt på spissen så høres nesten du ut som en fanboi hvis du påstår at ATi har klemt ifra nVidia denna runda her...

Bare piss? :roll: HL2 Lost Coast sin metode støtter AA med HDR da den bruker INT16, men uten blending og så lav presisjon er dette en metode som vil bli lite brukt. Med X1K har man FP blending med MSAA støtte der man ganske enkelt kan enable AA for den "skikkelige" HDR metoden. Dette er en "killer feature" etter min mening. Det gjenstår dog å se hvor stor ytelsetapet er i praksis. HDR er forøvrig mer enn bloom.

MistaPi er den skarpeste kniven i skuffa.... ;)

Lenke til kommentar
Sorry eg bare måtte :!:

Off-T:Hehe, du skulle sett rett etter lanseringen, litt under 100 her inne... ;)

 

On-t: Jeg mener bare, siden man ser så drastiske forskjeller på bl.a. F.E.A.R. på nye/gamle drivere hos nVidia, hvorfor klarer da ikke ATi det samme? De har da hatt rundt 6-7-8 mnd på å skreddersy disse driverne.

 

Prøver ikke være partisk her elns, men blir mildt sagt skuffa over hvordan de har latt hypen gå rundt uberørt, uten kommentarer om hva som er riktig/feil, for så å skyte seg sjøl i foten ved å lansere noe som er dyrere og dårligere... Jeg skjønner det bare ikke... :no: [Edit:] Kanskje ikke dårligere da, men mente dårligere/krone[/edit:]

 

Håper bare nVidia klargjør om de har noen planer i nærmeste framtid, eller om vi rett og slett sitter fast på samme flekken i GPU fronten de neste mnd fram til jul...

Nåda, hvis du tar i betrakning selve ytelsehoppet fra forrige generasjon så er det nok ganske så betraktelig :

 

Et uklokket x800xt/850xt hadde en ytelse på rundt 4500 3dmarks05 (før driver 5.12 vell å merke som fikset minne buggen) med det nye x1800xt kortet så ligger ytelsen på rett over 9000 3dmarks05 noe som er forholdsvis en ytelseøkning på 100% i forhold til et kort fra Ati i oktober i fjor.

 

Som regel greier produsentene å forbredre ytelsen med nye driverslipp med ca alt fra 5% til 25% (veldig konservativt fra meg) i løppet av 1år, et veldig godt eksempel på dette er jo ytelseforbedringen som nvidia 7800Gtx kortene har hatt siden de ble lansert.

 

Men som de fleste testene jeg har skimtet over så ser det ut som det ikke enda har blitt gått grundig inn i de nye finessene som disse kortene har og hva det innebærer, derfor tipper jeg at det vil ta noen dager før vi kan ha en god mening om hvor bra produktet er basert på

 

*Ytelse.

*Finesser / teknologi.

*Tilgjengelighet.

Lenke til kommentar
Ati er som NSB :p

Alltid forsinket :p

Er enig i den der.

Husker den gang 6800 ultra ble sluppet på markedet,Og hvordan det ble rakket ned av Ati fanboys på dette forumet fordi at det var et Dual slot kort.Det har vel ikke så mye og si det nå?

Endret av Bugs.
Lenke til kommentar
Herregud, å svanse med HDR+ AA er bare piss. Nesten alle som har skjemkort støtter helt/delvis HDR. Bare snakk om hvor mange ganger "bloom" du har/aktiverer. At dette skal være noe nytt syns jeg er å strekke det litt vel langt. At man ikke kan kjøre AA inn i HDR har veldig mye med programmeringa også (bl.a. "Lost Coast" støtter "full bloom" (16x), men ikke AApå HDR fordi det krevde så sterke grafikk-kort. Tenker både GTX og XT gjør det like bra, eneste forskjellen er vel at GTX er billigere og har bedre mulighet i SLI for høyere oppløsninger enn XFire.

 

For å putte det litt på spissen så høres nesten du ut som en fanboi hvis du påstår at ATi har klemt ifra nVidia denna runda her...

Bare piss? :roll: HL2 Lost Coast sin metode støtter AA med HDR da den bruker INT16, men uten blending og så lav presisjon er dette en metode som vil bli lite brukt. Med X1K har man FP blending med MSAA støtte der man ganske enkelt kan enable AA for den "skikkelige" HDR metoden. Dette er en "killer feature" etter min mening. Det gjenstår dog å se hvor stor ytelsetapet er i praksis. HDR er forøvrig mer enn bloom.

Det er nytt for min del at det er aktivert i HL2's: Lost Coast. Hvorvidt det er en "killer feature" derimot vet jeg ikke før jeg får se det ordentlig. Av det som jeg har oppfattet der, så har 7800GTX akkurat den samme "killer'n", så skjønner ikke heeelt hva du peker til.. :ermm: Vet at den "skikkelige metoden" blant annet er utnyttet i tilleggspakka til Far Cry elns (de som laga Far Cry hvertfall... :p ).

 

Og ja, :) det er mer enn bare bloom ja, men prøv å forklar resten selv du, så de andre forstår det. Kan godt quote hvor jeg har lest:

... The 'dynamic range' of a scene is the contrast ratio between its brightest and darkest parts. ...

Er ikke dette x-antall ganger "bloom" effekt du har aktivert? :ermm:

 

Edit: Det med shimmering effekten er jeg faktisk enig i, men tror også at ATi har melket det så lenge det varte, er jo ikke så big-a-deal uansett..

Endret av daniel_984
Lenke til kommentar

Vet ikke om jeg skal le eller gråte.

 

Når omsider ATI klarer å slippe kortene 4 måneder etter Nvidia, så yter jaggu deres toppkort(xl) dårligere enn et 7800gt! (xt er ikke i salg)

 

For det andre, alle de gtx'ene som er blitt testa kjører vel på standard klokk ifra Nvidia, dvs 430/1200mhz.

 

Nå selges det jo masse varianter av gtxen som er klokket en del høyere ?

Dette foreksempel: http://www.anandtech.com/video/showdoc.aspx?i=2500 ( 490/1300mhz)

 

Eller dette som komplett faktisk har på lager: http://www.komplett.no/k/ki.asp?sku=310686&cks=PRL (470mhz core)

 

Viss det hadde vært testet med et av disse korta hadde det vel vært enda mindre forskjell mellom gtxen og xten (som enda ikke er på marked)

 

Skal også nevnes at Nvidia gjør det ganske mye bedre på open_gl enn ATI (QUAKE 4 noen?? :yes:)

 

Og for å toppe denne floppen, priser ati kortene deres høyere.

 

Jeg er iallefall sikker i min tale.

 

ATI SKUFFER STORT.

 

*la til noe*

Endret av RocketArena
Lenke til kommentar
Det er nytt for min del at det er aktivert i HL2's: Lost Coast. Hvorvidt det er en "killer feature" derimot vet jeg ikke før jeg får se det ordentlig. Av det som jeg har oppfattet der, så har 7800GTX akkurat den samme "killer'n", så skjønner ikke heeelt hva du peker til.. :ermm: Vet at den "skikkelige metoden" blant annet er utnyttet i tilleggspakka til Far Cry elns (de som laga Far Cry hvertfall... :p ).

 

Og ja, :) det er mer enn bare bloom ja, men prøv å forklar resten selv du, så de andre forstår det. Kan godt quote hvor jeg har lest:

... The 'dynamic range' of a scene is the contrast ratio between its brightest and darkest parts. ...

Er ikke dette x-antall ganger "bloom" effekt du har aktivert? :ermm:

 

Edit: Det med shimmering effekten er jeg faktisk enig i, men tror også at ATi har melket det så lenge det varte, er jo ikke så big-a-deal uansett..

Lost Coast/Source-motoren er så langt den eneste 3d-motoren som bruker en HDR-metode som kan benyttes sammen med vanlig "MSAA"-kantutjevning. I alle andre spill (Splinter Cell, Far Cry etc) blir FSAA deaktivert når en kjører i HDR-modus. Den INT16-baserte metoden har svakheter i forhold til "FP-blending"-baserte metoder, og kommer derfor bare til å være et alternativ sålenge de fleste kortene på markedet mangler R520s støtte for AA+FP-blending. Dette ER et gjennombrudd som nVidia vil måtte følge opp.

 

Skjønner overhodet ikke hva du mener med "Er ikke dette x-antall ganger "bloom" effekt du har aktivert?". :)

 

Mvh

Kjetil

Endret av rotekaizer
Lenke til kommentar

Nå skal det nevnes at Hexus ikke brukte de siste driverne fra nVidia som gir en del ytelsesforskjell.

 

*Magnus*: så du skal benytte deg av Crossfire? Litt waste med 2 x1800xt kort da spør du meg siden du max kan kjøre 1600x1200 med Crossfire...hehe

Det du snakker om er Crossfire for R4X0-kort.

 

Her er et innlegg jeg skrev på Futuremark for omtrent en uke siden:

X800/X850

The required pass-band in megahertz is calculated by the formula: R = (1.4*X*Y*V)/1000000. Where 1.4 is a device lag compensation coefficient, X and Y are the horizontal and vertical resolutions, and V is the vertical sync frequency. You can solve this simple equation to see that a bandwidth of 165MHz is only sufficient to output a 1600x1200 picture at 60Hz frequency.

 

-> V = 165 000 000 / (1.4*X*Y).

 

V = 89.9Hz -> 85Hz @ 1280x1024.

 

Or

 

V = 149.9Hz @ 1024x768.

 

You're obviously using a CRT, thus:

 

V = 95.9Hz @ 1280x960.

 

R520

But if R520 is in fact are of a dual-link design they must use SiI163B. This is "great" news because it's 330MHz.

 

->

 

V = 74.9Hz @ 2048x1536 (Still useless with a CRT displaying QXGA (2048x1536)!)

 

V= 122.8Hz @ 1600x1200 (This is a bit better than 60Hz.  :!: )

PS

R520 benytter et dual-link design.

 

Innlegget

Endret av guezz
Lenke til kommentar
Vet ikke om jeg skal le eller gråte.

 

Når omsider ATI klarer å slippe kortene 4 måneder etter Nvidia, så yter jaggu deres toppkort(xl) dårligere enn et 7800gt! (xt er ikke i salg)

 

For det andre, alle de gtx'ene som er blitt testa kjører vel på standard klokk ifra Nvidia, dvs 430/1200mhz.

 

ATi leverer som forventet, med tanke på alle rykter og synsing som har svirret rundt på nettet. Vi -vet- alle (og har visst i en god stund nå) at X1000 series er særdeles utsatt, samt at toppmodellen XT ikke ville bli lansert idag. "Tilgjengeligheten" fra ATi kan du gjerne stille et stort ? til og kritisere, men og si at Ytelsen er såååå far away fra hva vi hadde tenkt oss, er tøv! (Da har du ikke fulgt med det siste halv året, hva angår GFX utvikling). "

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...