Gå til innhold

ATI 47xx/48xx-tråden (4770, 4850, 4870, 4890, 4850x2, 4870x2)


FrodeA

Anbefalte innlegg

Men vil man få bruk for de 230gib. ATI har hatt en tendens til å gå largly overkill på minnebåndbredde før HD38 serien.

 

 

2900 xt og 2900 pro er de eneste kortene med 512 bit båndbredde. Både x1900 xtx og x1950 xtx hadde 256 bit båndbredde(49,6 og 64 GB/s). Dette er ikke largly overkill.

 

 

Det kan godt hende at du har skrevet noe før det som ikke jeg har sett. Jeg quotet hvertfall hele din post siden jeg ikke vet hvordan man gjør annet. Og det står det kun "før HD38 serien". Kan jeg få spørre om du mener noen andre kort utenom 2900 xt og pro har overkill på minnebredde?

Lenke til kommentar
Videoannonse
Annonse
Kan de ikke bare komme med hd4870x2 litt før åhhhh...så kanskje cf-x thumbs.gif

Ville det ikke vært litt fint om ati gjorde som nvidia og kom med toppkortene først.

 

4850:kr 1200

4870:kr 1700 edit: ser nå at det er nevnt en pris på forrige side til 2000+

4870x2:kr ? (3200?)

 

gtx280 triple-sli 55fps i crysis på very high, og hvis 4870 i nærheten av 280 i ytelse så skulle to 4870x2 virkelig gruse crysis med "4x4870"

 

Hmm er det egentlig noen grunn til å ta 4870 i cf isteden for x2 varianten eller vica verca, iberegnt at man har cf støtte på hk da ?

å?, er det ikke bedre å vente 6 månder før et optil 100% raskere kort siden forje kort, og heller gå opp i steden?

 

som 4850 gjorde, det tok innersvingen på 9800 GTX og i tilegg var ca 1000 kr billigere ;)

og er bare mid-performace klassen, jeg venter spent på hva en 4870 kan gjøre jeg ;D

Syntes det er best og IKKE vente 6 måneder og få 100% bedre ytelse nå heller, er ikke det best :)

 

 

gtx280 triple-sli 55fps i crysis på very high, og hvis 4870 i nærheten av 280 i ytelse så skulle to 4870x2 virkelig gruse crysis med "4x4870"

 

Hvor har du de 280 gtx tallene fra?, det var det en minimal økning i forhold til 1 kort, om det ikke er med full pupp AA også da.

 

Leter etter den testen jeg leste igår nå....

Edit: her er den

 

Du ser vel hvor jeg har tatt 55fps fra,...very high 1600x1200 siden det ligner mest min egen oppløsning.

 

P.s. Tok meg en stund og bli kvitt de overflødige qoutene, fikk jo self beskjed hele tiden når jeg prøvde og poste de første gangene at taggene ikke made noe sens :wallbash:

 

P.s.2: Forumet ser ut som en fyllerye\lappeteppe :grin:

Endret av AllColor
Lenke til kommentar
Men vil man få bruk for de 230gib. ATI har hatt en tendens til å gå largly overkill på minnebåndbredde før HD38 serien.

 

 

2900 xt og 2900 pro er de eneste kortene med 512 bit båndbredde. Både x1900 xtx og x1950 xtx hadde 256 bit båndbredde(49,6 og 64 GB/s). Dette er ikke largly overkill.

 

 

Det kan godt hende at du har skrevet noe før det som ikke jeg har sett. Jeg quotet hvertfall hele din post siden jeg ikke vet hvordan man gjør annet. Og det står det kun "før HD38 serien". Kan jeg få spørre om du mener noen andre kort utenom 2900 xt og pro har overkill på minnebredde?

Forøvrig er det totalt unødvendig å quote poster som står rett ovenfor ditt innlegg.

 

Hvorfor velger du å quote en linje, ta den ut av sammenhengen og overse det jeg skriver i temaet i tråden, har du ikke sett hva jeg sier eller velger du å overse det. Hmm jaja.

 

La meg så quote så du ser det du selv har deltatt i.

 

 

Allcolor:

ATI hadde 512bit minnebuss fra X1800 serien... de var først ute... Både (1)X1800, (2)X1900 og (3)X2900 serien hadde dette. Det var først på HD serien at de gikk ned til 256bit.

 

Men vil man få bruk for de 230gib. ATI har hatt en tendens til å gå largly overkill på minnebåndbredde før HD38 serien.

2900 xt og 2900 pro er de eneste kortene med 512 bit båndbredde. Både x1900 xtx og x1950 xtx hadde 256 bit båndbredde(49,6 og 64 GB/s). Dette er ikke largly overkill.

 

Men vil man få bruk for de 230gib. ATI har hatt en tendens til å gå largly overkill på minnebåndbredde før HD38 serien.

 

 

2900 xt og 2900 pro er de eneste kortene med 512 bit båndbredde. Både x1900 xtx og x1950 xtx hadde 256 bit båndbredde(49,6 og 64 GB/s). Dette er ikke largly overkill.

Da var det kun minnekontrolleren som var 512bit og ikke minnebussen på de førstnevnte. Kontrolleren fikk mye oppmerksomhet.

 

Det er dog mulig du ikke fikk med deg det første innlegget mitt siden det ble skrevet 20min før det du quoter alene, men jeg forventet faktisk det :) Innlegget du skriver på det første du quoter tyder også på at du har lest den første posten kl. 08:09.

Endret av Theo343
Lenke til kommentar

Theo343: Okey, men da er vi enige da.

 

 

Legger til: Missforståelsen har nok ligget på min side. Leste dårlig gjennom endel av innleggene. Noe jeg ofte har en tendens til å gjøre her på diskusjon.no . Hadde jeg lest skikkelig gjennom din post 20/06-2008 : 17:26 hvor du formulerer deg slik at du husket feil, hadde jeg ikke skrevet alle de uforstående innleggene.

Endret av O:M:A
Lenke til kommentar
Theo343: Okey, men da er vi enige da.
Det kan ha vært en missforståelse i vår diskusjon ja :) Du har helt rett i at X1800 og X1900 kun hadde 256bit minnebuss, så det var minnekontrolleren som fikk 512bit "hypen" som det tross alt var den gang. X2900 var det første med 512bit minnebuss i tillegg, som jo er en vesentlig faktaforskjell.

 

Hvorvidt det var overkill, ja det synes jeg, og hvorvidt det var fordyrende med GDDR4 vs GDDR3 den gang, som MistaPI var inne på ang. kostnad vs. minnebåndbredde overkill... vanskelig å si.

 

At det har betydning nå med GDDR3 vs GDDR5 vil jeg tro, ville være rart om kostnaden var den samme. Dog koster muligens bredere buss med mer komplisert PCB design mer enn 2 generasjoner nyere GDDR og at det dermed utjevner hverandre både kostnadsmessig og teknisk.

Endret av Theo343
Lenke til kommentar

Når det gjelder 256 bit vs 512 bit så snakker du om mer komplisert PCB design. Er ikke produksjons kostnaddene mye høyere på de med 512 bit buss? Eller er det slik at det er dyrere og utvikle? For da har jo nvidia et stort forsprang ved at gddr5 koster mye penger å kjøpe inn, men om nvidia allerede har laget et pcb design med 512 bit bredde kan de kjøpe inn billig gddr3.

 

Det er vel snakk om at PCB med 512 bit buss har flere lag, og er dyrere å produsere. Er det ikke?

Lenke til kommentar

Nøyaktig detaljene i design på 256 og 512bit minnebuss design vs PCB kjenner jeg ikke desverre. Men jeg husker innlegg fra de virkelig kompetente her inne som sier så, samt at det ligger vel i tallene at det enten må flere lag til eller krever noe annet fordyrende i designen av PCB etc.

 

Så produksjonskostnaden blir nok høyere med 512bit minnebuss og slik sett synes jeg X2900 var fordyrende både på valget av 512bit minnekontroller og buss, samt fordyrende GDDR4 den gang. Det var totalt overkill utfra behovet og slik sett traff de litt bedre med HD serien.

 

GDDR5 er nok dyrere enn GDDR3 og dermed kan det være vi får en utjevnelse i kostnad, men jeg tror(merk tror) at mindre komplisert PCB design fortsatt blir billigst, så her har faktisk ATI lært mens Nvidia har gått andre veien. Virker det som.

 

ATI velger nå minnebåndredde med dyrere GDDR5

Nvidia velger minnebåndbredde med mer komplisert PCB og fordyrende 512bit buss og nøyer seg med GDDR3.

 

Egentlig et lite skifte i taktikk siden X2900 tidsrommet.

Endret av Theo343
Lenke til kommentar

2900 xt hadde relativ tregt gddr3 minne(1600 mhz). Ikke gddr4, 3870 er det eneste kortet med gddr4, valget av gddr4 var for å kompansere halvert minnebuss fra 2900 serien. Gddr5 kommer til å synke i pris slik at ati får kostnaddsmessige fordeler også.

 

er det ikke snakk om at gtx280 får gddr5 i fremtiden?

Lenke til kommentar

Jeg mener nå å huske at det ble solgt 2900 kort med GDDR4, eller var det kun spesialutgaver fra leverandører? Var det kun X1900 som kom med dette og deretter droppet?

 

Ellers husker vi likt på 3870 ja hvor GDDR4 ble brukt for å kompensere minnebussen på samme måte som de gjør med GDDR5 nå på HD4870, men GDDR4 ble brukt i tidligere generasjoner også hos ATI når det var meget fordyrende og det ble mange diskusjoner hvorvidt det var nødvendig, var det da X1900.

 

Det er rykter om at GTX280 vil få GDDR5 på GT200b såvidt jeg vet, men har ingen fakta på det. Dog kan vel det også bli overkill siden Simen1 hadde et flott regnestykke på at nåværende minnebåndbredde på GTX 280 holdt lenge ift. GPU design.

 

EDIT:

Rimelig sikker på at det kom 2900 kort med 1GB GDDR4... mener tom å huske kampanjer på det på slutten.

Endret av Theo343
Lenke til kommentar
begge har delvis rett - 2900 var forberedt for både gddr3 og gddr4, men det var kun noen 1gb versjoner som brukte gddr4.

Ah korrekt, der jeg hadde det fra i de gamle trådene hvor bla. kjempetilbud kom på slutten.

 

Men jeg lurer på om selv X1900 hadde GDDR4...

Endret av Theo343
Lenke til kommentar

Fra GDDR5 artikkelen til ExtremeTech:

 

What about cost. This stuff is going to cost a fortune, right? Well, yes and no. High-speed GDDR3 and GDDR4 memory is certainly expensive. We're told to expect GDDR5 to initially cost something like 10–20% more than the really high speed GDDR3. Of course, you don't buy memories, you buy a graphics card. Though the memory will cost more, it will be offset somewhat in other places on the product you buy. You don't need as wide a memory interface which means a smaller chip with fewer pins. The board doesn't need to contain as many layers to support wider memory busses, and the trace wire design can be a bit more simple and straightforward, reducing board design costs. As production ramps up, GDDR5 could be as cost effective overall as GDDR3.

- http://www.extremetech.com/article2/0,2845,2309888,00.asp

Endret av MistaPi
Lenke til kommentar

Den dekket alle aspekter MistaPI :thumbup:

 

Og det er logisk at highspeed GDDR3 er omtrent like dyrt som "mainstream" GDDR5 :). Og det fremhver mistanken om at mye mer komplisert PCB og chip design pga. 512bit minnebuss, er meget fordyrende.

 

ATI skjønte det og gikk bort fra det etter X2900. Derfor litt merkelig at Nvidia nå velger å gå videre den veien fra 8800GTX, selv etter G92. Slik sett blir vel Nvidia den som tjener minst per solgte highend kort nå fremover.

 

Men hvilke utslag det får ytelsesmessig på Nvidias minnebåndbredde og monsterchip satsing ser vi vel kun på 30".

 

EDIT:

Samt at om man skulle trenge mer minnebåndbredde så må man vel ha mer rom for å klokke GDDR5 enn allerede hardt presset GDDR3.

Endret av Theo343
Lenke til kommentar
1. ATI skjønte det og gikk bort fra det etter X2900. Derfor litt merkelig at Nvidia nå velger å gå videre den veien fra 8800GTX, selv etter G92. Slik sett blir vel Nvidia den som tjener minst per solgte highend kort nå fremover.

 

2. Men hvilke utslag det får ytelsesmessig på Nvidias minnebåndbredde og monsterchip satsing ser vi vel kun på 30".

1. Hvis både AMD og nVIDIA hadde brukt GDDR5 minne så hadde det blitt store problemer med å få nok volum. Tilgjenglig volum av GDDR5 er en av grunnene til at kun HD 4850 er lansert enda. Vi får se hva nVIDIA gjør ved neste refresh... High-end kort er generelt et tapsprosjekt. Det er ikke der markedsandeler/profitt ligger.

 

2. Vi får se hva som skjer når kortene skal kjøre CUDA programmer (i.e PhysX) samtidig som grafikk...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...