Lolcat2016 Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 Skuffende at ATI (for deres del) ikke makter å levere sitt high-end kort samme dag, slik som Nvidia. ATI kommer ikke bare for sent, men high-end kortet deres kan ikke vise til noen drastiske ytelsesforbedringer i forhold til 7800GTX (i mange spilltester på AnandTech kommer faktisk GTX bedre ut, selv om X1800XT er utstyrt med 512 MB. Nvidias 81.82 drivere ble brukt i testene). På toppen av det hele ser det ut til at prisene vil ligge godt over GTXs nivå når de lanseres senere i år. Lenke til kommentar
daniel_984 Skrevet 5. oktober 2005 Forfatter Del Skrevet 5. oktober 2005 (endret) Sorry eg bare måtte :!: Off-T:Hehe, du skulle sett rett etter lanseringen, litt under 100 her inne... On-t: Jeg mener bare, siden man ser så drastiske forskjeller på bl.a. F.E.A.R. på nye/gamle drivere hos nVidia, hvorfor klarer da ikke ATi det samme? De har da hatt rundt 6-7-8 mnd på å skreddersy disse driverne. Prøver ikke være partisk her elns, men blir mildt sagt skuffa over hvordan de har latt hypen gå rundt uberørt, uten kommentarer om hva som er riktig/feil, for så å skyte seg sjøl i foten ved å lansere noe som er dyrere og dårligere... Jeg skjønner det bare ikke... [Edit:] Kanskje ikke dårligere da, men mente dårligere/krone[/edit:] Håper bare nVidia klargjør om de har noen planer i nærmeste framtid, eller om vi rett og slett sitter fast på samme flekken i GPU fronten de neste mnd fram til jul... Endret 5. oktober 2005 av daniel_984 Lenke til kommentar
Jarmo Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 (endret) Mer her: http://www.hol.dk/nyheder.asp?nID=8682 http://www.hol.dk/nyheder.asp?nID=8681 Endret 5. oktober 2005 av jarmo Lenke til kommentar
MistaPi Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 Herregud, å svanse med HDR+ AA er bare piss. Nesten alle som har skjemkort støtter helt/delvis HDR. Bare snakk om hvor mange ganger "bloom" du har/aktiverer. At dette skal være noe nytt syns jeg er å strekke det litt vel langt. At man ikke kan kjøre AA inn i HDR har veldig mye med programmeringa også (bl.a. "Lost Coast" støtter "full bloom" (16x), men ikke AApå HDR fordi det krevde så sterke grafikk-kort. Tenker både GTX og XT gjør det like bra, eneste forskjellen er vel at GTX er billigere og har bedre mulighet i SLI for høyere oppløsninger enn XFire. For å putte det litt på spissen så høres nesten du ut som en fanboi hvis du påstår at ATi har klemt ifra nVidia denna runda her... Bare piss? HL2 Lost Coast sin metode støtter AA med HDR da den bruker INT16, men uten blending og så lav presisjon er dette en metode som vil bli lite brukt. Med X1K har man FP blending med MSAA støtte der man ganske enkelt kan enable AA for den "skikkelige" HDR metoden. Dette er en "killer feature" etter min mening. Det gjenstår dog å se hvor stor ytelsetapet er i praksis. HDR er forøvrig mer enn bloom. Lenke til kommentar
Jarmo Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 Herregud, å svanse med HDR+ AA er bare piss. Nesten alle som har skjemkort støtter helt/delvis HDR. Bare snakk om hvor mange ganger "bloom" du har/aktiverer. At dette skal være noe nytt syns jeg er å strekke det litt vel langt. At man ikke kan kjøre AA inn i HDR har veldig mye med programmeringa også (bl.a. "Lost Coast" støtter "full bloom" (16x), men ikke AApå HDR fordi det krevde så sterke grafikk-kort. Tenker både GTX og XT gjør det like bra, eneste forskjellen er vel at GTX er billigere og har bedre mulighet i SLI for høyere oppløsninger enn XFire. For å putte det litt på spissen så høres nesten du ut som en fanboi hvis du påstår at ATi har klemt ifra nVidia denna runda her... Bare piss? HL2 Lost Coast sin metode støtter AA med HDR da den bruker INT16, men uten blending og så lav presisjon er dette en metode som vil bli lite brukt. Med X1K har man FP blending med MSAA støtte der man ganske enkelt kan enable AA for den "skikkelige" HDR metoden. Dette er en "killer feature" etter min mening. Det gjenstår dog å se hvor stor ytelsetapet er i praksis. HDR er forøvrig mer enn bloom. MistaPi er den skarpeste kniven i skuffa.... Lenke til kommentar
Malvado Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 Sorry eg bare måtte :!: Off-T:Hehe, du skulle sett rett etter lanseringen, litt under 100 her inne... On-t: Jeg mener bare, siden man ser så drastiske forskjeller på bl.a. F.E.A.R. på nye/gamle drivere hos nVidia, hvorfor klarer da ikke ATi det samme? De har da hatt rundt 6-7-8 mnd på å skreddersy disse driverne. Prøver ikke være partisk her elns, men blir mildt sagt skuffa over hvordan de har latt hypen gå rundt uberørt, uten kommentarer om hva som er riktig/feil, for så å skyte seg sjøl i foten ved å lansere noe som er dyrere og dårligere... Jeg skjønner det bare ikke... [Edit:] Kanskje ikke dårligere da, men mente dårligere/krone[/edit:] Håper bare nVidia klargjør om de har noen planer i nærmeste framtid, eller om vi rett og slett sitter fast på samme flekken i GPU fronten de neste mnd fram til jul... Nåda, hvis du tar i betrakning selve ytelsehoppet fra forrige generasjon så er det nok ganske så betraktelig : Et uklokket x800xt/850xt hadde en ytelse på rundt 4500 3dmarks05 (før driver 5.12 vell å merke som fikset minne buggen) med det nye x1800xt kortet så ligger ytelsen på rett over 9000 3dmarks05 noe som er forholdsvis en ytelseøkning på 100% i forhold til et kort fra Ati i oktober i fjor. Som regel greier produsentene å forbredre ytelsen med nye driverslipp med ca alt fra 5% til 25% (veldig konservativt fra meg) i løppet av 1år, et veldig godt eksempel på dette er jo ytelseforbedringen som nvidia 7800Gtx kortene har hatt siden de ble lansert. Men som de fleste testene jeg har skimtet over så ser det ut som det ikke enda har blitt gått grundig inn i de nye finessene som disse kortene har og hva det innebærer, derfor tipper jeg at det vil ta noen dager før vi kan ha en god mening om hvor bra produktet er basert på *Ytelse. *Finesser / teknologi. *Tilgjengelighet. Lenke til kommentar
Bugs. Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 (endret) Ati er som NSB Alltid forsinket Er enig i den der. Husker den gang 6800 ultra ble sluppet på markedet,Og hvordan det ble rakket ned av Ati fanboys på dette forumet fordi at det var et Dual slot kort.Det har vel ikke så mye og si det nå? Endret 5. oktober 2005 av Bugs. Lenke til kommentar
Wraith Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 Et litt offtopic spm, men kommer denne releasen til å få ned prisene på 7800 GTX kortene til NVidia? eller er ikke det særlig sannsynlig? Lenke til kommentar
MistaPi Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 Videre syns jeg også den forbedret texture filteringen uten vinkel avhengig filtering og fri for shimmering (hvis sant) med forsatt en akseptabel ytelse er veldig velkommen. Ytelse er ikke alt. Lenke til kommentar
simalarion Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 (endret) gjetter prisenen på gtx kan faktisk økes, men de holder seg nokk på samme pris - grunn 7800gt yter like bra som x1800xl 1800xt komer ikke ut for om 1-2 mnd edit:fader roter med kort navnene nå hehe og sist men ikke minst xl koster 1000kr mer Endret 5. oktober 2005 av simalarion Lenke til kommentar
simalarion Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 Husker den gang 6800 ultra ble sluppet på markedet,Og hvordan det ble rakket ned av Ati fanboys på dette forumet fordi at det var et Dual slot kort.Det har vel ikke så mye og si det nå? ' Nå er det jo motsatt Lenke til kommentar
daniel_984 Skrevet 5. oktober 2005 Forfatter Del Skrevet 5. oktober 2005 (endret) Herregud, å svanse med HDR+ AA er bare piss. Nesten alle som har skjemkort støtter helt/delvis HDR. Bare snakk om hvor mange ganger "bloom" du har/aktiverer. At dette skal være noe nytt syns jeg er å strekke det litt vel langt. At man ikke kan kjøre AA inn i HDR har veldig mye med programmeringa også (bl.a. "Lost Coast" støtter "full bloom" (16x), men ikke AApå HDR fordi det krevde så sterke grafikk-kort. Tenker både GTX og XT gjør det like bra, eneste forskjellen er vel at GTX er billigere og har bedre mulighet i SLI for høyere oppløsninger enn XFire. For å putte det litt på spissen så høres nesten du ut som en fanboi hvis du påstår at ATi har klemt ifra nVidia denna runda her... Bare piss? HL2 Lost Coast sin metode støtter AA med HDR da den bruker INT16, men uten blending og så lav presisjon er dette en metode som vil bli lite brukt. Med X1K har man FP blending med MSAA støtte der man ganske enkelt kan enable AA for den "skikkelige" HDR metoden. Dette er en "killer feature" etter min mening. Det gjenstår dog å se hvor stor ytelsetapet er i praksis. HDR er forøvrig mer enn bloom. Det er nytt for min del at det er aktivert i HL2's: Lost Coast. Hvorvidt det er en "killer feature" derimot vet jeg ikke før jeg får se det ordentlig. Av det som jeg har oppfattet der, så har 7800GTX akkurat den samme "killer'n", så skjønner ikke heeelt hva du peker til.. Vet at den "skikkelige metoden" blant annet er utnyttet i tilleggspakka til Far Cry elns (de som laga Far Cry hvertfall... ). Og ja, det er mer enn bare bloom ja, men prøv å forklar resten selv du, så de andre forstår det. Kan godt quote hvor jeg har lest: ... The 'dynamic range' of a scene is the contrast ratio between its brightest and darkest parts. ... Er ikke dette x-antall ganger "bloom" effekt du har aktivert? Edit: Det med shimmering effekten er jeg faktisk enig i, men tror også at ATi har melket det så lenge det varte, er jo ikke så big-a-deal uansett.. Endret 5. oktober 2005 av daniel_984 Lenke til kommentar
RocketArena Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 (endret) Vet ikke om jeg skal le eller gråte. Når omsider ATI klarer å slippe kortene 4 måneder etter Nvidia, så yter jaggu deres toppkort(xl) dårligere enn et 7800gt! (xt er ikke i salg) For det andre, alle de gtx'ene som er blitt testa kjører vel på standard klokk ifra Nvidia, dvs 430/1200mhz. Nå selges det jo masse varianter av gtxen som er klokket en del høyere ? Dette foreksempel: http://www.anandtech.com/video/showdoc.aspx?i=2500 ( 490/1300mhz) Eller dette som komplett faktisk har på lager: http://www.komplett.no/k/ki.asp?sku=310686&cks=PRL (470mhz core) Viss det hadde vært testet med et av disse korta hadde det vel vært enda mindre forskjell mellom gtxen og xten (som enda ikke er på marked) Skal også nevnes at Nvidia gjør det ganske mye bedre på open_gl enn ATI (QUAKE 4 noen?? ) Og for å toppe denne floppen, priser ati kortene deres høyere. Jeg er iallefall sikker i min tale. ATI SKUFFER STORT. *la til noe* Endret 5. oktober 2005 av RocketArena Lenke til kommentar
Lolliken Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 Ble skuffet over ati kortene, så jeg er glad jeg valgte nvidia når jeg kjøpte ny pc... De er dyre pluss at de ikke holder like høy standard som 7800gt kortet, slik jeg forsto det som ihvertfall Lenke til kommentar
Kjetil-H Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 (endret) Det er nytt for min del at det er aktivert i HL2's: Lost Coast. Hvorvidt det er en "killer feature" derimot vet jeg ikke før jeg får se det ordentlig. Av det som jeg har oppfattet der, så har 7800GTX akkurat den samme "killer'n", så skjønner ikke heeelt hva du peker til.. Vet at den "skikkelige metoden" blant annet er utnyttet i tilleggspakka til Far Cry elns (de som laga Far Cry hvertfall... ). Og ja, det er mer enn bare bloom ja, men prøv å forklar resten selv du, så de andre forstår det. Kan godt quote hvor jeg har lest: ... The 'dynamic range' of a scene is the contrast ratio between its brightest and darkest parts. ... Er ikke dette x-antall ganger "bloom" effekt du har aktivert? Edit: Det med shimmering effekten er jeg faktisk enig i, men tror også at ATi har melket det så lenge det varte, er jo ikke så big-a-deal uansett.. Lost Coast/Source-motoren er så langt den eneste 3d-motoren som bruker en HDR-metode som kan benyttes sammen med vanlig "MSAA"-kantutjevning. I alle andre spill (Splinter Cell, Far Cry etc) blir FSAA deaktivert når en kjører i HDR-modus. Den INT16-baserte metoden har svakheter i forhold til "FP-blending"-baserte metoder, og kommer derfor bare til å være et alternativ sålenge de fleste kortene på markedet mangler R520s støtte for AA+FP-blending. Dette ER et gjennombrudd som nVidia vil måtte følge opp. Skjønner overhodet ikke hva du mener med "Er ikke dette x-antall ganger "bloom" effekt du har aktivert?". Mvh Kjetil Endret 5. oktober 2005 av rotekaizer Lenke til kommentar
cremaster Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 Er spent på om ATI vil tjene nok penger på dette kortet. Hvis Nvidia fortsatt ligger like langt foran ATI utviklingsmessig kan de jo komme til å lanserer et nytt kort rett før jul. Omtrent samtidig med når ATI sitt toppkort blir tilgjengelig i større antall. Lenke til kommentar
guezz Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 (endret) http://img.hexus.net/v2/graphics_cards/ati...nch-fear-iq.png Holy moly. Nå skal det nevnes at Hexus ikke brukte de siste driverne fra nVidia som gir en del ytelsesforskjell. *Magnus*: så du skal benytte deg av Crossfire? Litt waste med 2 x1800xt kort da spør du meg siden du max kan kjøre 1600x1200 med Crossfire...hehe Det du snakker om er Crossfire for R4X0-kort. Her er et innlegg jeg skrev på Futuremark for omtrent en uke siden: X800/X850The required pass-band in megahertz is calculated by the formula: R = (1.4*X*Y*V)/1000000. Where 1.4 is a device lag compensation coefficient, X and Y are the horizontal and vertical resolutions, and V is the vertical sync frequency. You can solve this simple equation to see that a bandwidth of 165MHz is only sufficient to output a 1600x1200 picture at 60Hz frequency. -> V = 165 000 000 / (1.4*X*Y). V = 89.9Hz -> 85Hz @ 1280x1024. Or V = 149.9Hz @ 1024x768. You're obviously using a CRT, thus: V = 95.9Hz @ 1280x960. R520 But if R520 is in fact are of a dual-link design they must use SiI163B. This is "great" news because it's 330MHz. -> V = 74.9Hz @ 2048x1536 (Still useless with a CRT displaying QXGA (2048x1536)!) V= 122.8Hz @ 1600x1200 (This is a bit better than 60Hz. :!: ) PSR520 benytter et dual-link design. Innlegget Endret 5. oktober 2005 av guezz Lenke til kommentar
Kenneth Solfjeld Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 Sier bare: Geforce 7800 Ultra! Lenke til kommentar
KimmiK Skrevet 5. oktober 2005 Del Skrevet 5. oktober 2005 Vet ikke om jeg skal le eller gråte. Når omsider ATI klarer å slippe kortene 4 måneder etter Nvidia, så yter jaggu deres toppkort(xl) dårligere enn et 7800gt! (xt er ikke i salg) For det andre, alle de gtx'ene som er blitt testa kjører vel på standard klokk ifra Nvidia, dvs 430/1200mhz. ATi leverer som forventet, med tanke på alle rykter og synsing som har svirret rundt på nettet. Vi -vet- alle (og har visst i en god stund nå) at X1000 series er særdeles utsatt, samt at toppmodellen XT ikke ville bli lansert idag. "Tilgjengeligheten" fra ATi kan du gjerne stille et stort ? til og kritisere, men og si at Ytelsen er såååå far away fra hva vi hadde tenkt oss, er tøv! (Da har du ikke fulgt med det siste halv året, hva angår GFX utvikling). " Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå