Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

AMD Radeon R300-serien/fiji diskusjon og spekulasjon


Anbefalte innlegg

 

Vel det handler vel snarere om å optimere minnebåndbredden:

however GCN 1.2 iterates on this idea with a color compression method AMD is calling “lossless delta color compression.”

ref.

Jeg ser ikke hvordan dette skal hjelpe på en GPU som har rikelig med minnebåndredde men for lite minne, hvis det var det du mente.

 

Med mindre jeg har misforstått, så dekomprimeres vel ikke dataene når det ankommer minnet? Da bør det bli noen megabyte spart,

Dessuten har som sagt Fiji færre GB/s sammenlignet med pixel fillrate enn noen annen GCN-variant.

Om AMD har lagt inn hardware-løsninger for å spare på minnet har jeg tro på at det ikke er så farlig med "bare" 4GB VRAM, men om de lover driveroptimaliseringer for VRAM-bruk vil jeg bli mer skeptisk. Uansett er det ikke nødvendigvis slik at man trenger mer enn 4GB VRAM utenom ekstreme tilfeller, dagens spillmotorer fyller jo opp VRAMet fordi "det gir ikke mening å ikke gjøre det."

 

 

Slik jeg har skjønt det vil ikke lossless framebuffer komprimering (deler av framebufferet) spare minne fordi komprimeringen kan feile slik at den ukomprimerte original informasjonen trengs da for å unngå kvalitetstap eller rendering feil.

 

Til de aller fleste situasjoner spillmessig vil nok 4GB holde greit.

Endret av MistaPi
Lenke til kommentar
Videoannonse
Annonse

Med mindre jeg har misforstått, så dekomprimeres vel ikke dataene når det ankommer minnet? Da bør det bli noen megabyte spart,

Dessuten har som sagt Fiji færre GB/s sammenlignet med pixel fillrate enn noen annen GCN-variant.

Jeg har gravd i Nvidias datablader og det ser ut til å være komprimering av delta mellom nabopiksler ikke komprimering av delta mellom to bufre som jeg tenkte på som oftes referers til som delta compression. Det blir da naturlig å tro at AMD har noe tilsvarende som alle Maxwell-2-kort har. Denne komprimeringen skal være effektiv ved AA hvor nabo(sub)piksler er relativt like. Men hvis ikke AMD har noe som er ennå bedre enn Nvidia så vil altså ikke dette gi større fordeler til AMD med "bare" 4 GB.

 

Om AMD har lagt inn hardware-løsninger for å spare på minnet har jeg tro på at det ikke er så farlig med "bare" 4GB VRAM, men om de lover driveroptimaliseringer for VRAM-bruk vil jeg bli mer skeptisk. Uansett er det ikke nødvendigvis slik at man trenger mer enn 4GB VRAM utenom ekstreme tilfeller, dagens spillmotorer fyller jo opp VRAMet fordi "det gir ikke mening å ikke gjøre det."

Greit nok at "alle" dagens spill utnytter dårlig minne. Men du må gjerne utdype hva du mente.

 

Rent praktisk skulle egentlig 4GB vært mer enn nok for alle dagens GPUer under spilling dersom det ble brukt noen intelligente cache-mekanismer. Som jeg har skravlet om mange ganger så bruker selv de tyngste spillene neppe mer enn ~1.5 GB i løpet av ett enkelt bilde, så hvis de bruker tilgjengelig GPU-minne som en cache til et større lager med teksturer så kunne de i teorien hatt så store teksturer de bare vil. Jeg har testet med 12 GB på et 4GB-skjermkort. Problemet til nå har vært at det har vært kostbart å overføre data til GPUen, men hvis vi snart kan gjøre denne overføringen uten store forstyrrelser av rendering så kunne vi hatt en kontinuerlig streaming av "uendelig" store landskap.

Lenke til kommentar

 

Med mindre jeg har misforstått, så dekomprimeres vel ikke dataene når det ankommer minnet? Da bør det bli noen megabyte spart,

Dessuten har som sagt Fiji færre GB/s sammenlignet med pixel fillrate enn noen annen GCN-variant.

Jeg har gravd i Nvidias datablader og det ser ut til å være komprimering av delta mellom nabopiksler ikke komprimering av delta mellom to bufre som jeg tenkte på som oftes referers til som delta compression. Det blir da naturlig å tro at AMD har noe tilsvarende som alle Maxwell-2-kort har. Denne komprimeringen skal være effektiv ved AA hvor nabo(sub)piksler er relativt like. Men hvis ikke AMD har noe som er ennå bedre enn Nvidia så vil altså ikke dette gi større fordeler til AMD med "bare" 4 GB.

 

AMDs Carrizo har Delta Color Compression, der nevnes det at GCN kan lese og skrive komprimerte data. Angående dataforbruk, så tenker jeg på at man kan helt sikkert legge til hardware-støtte for on-the-fly kompresjon av teksturer også om det gir en fornuftig økning i brukbart minne og båndbreddebruk, dette kortet har jo tross alt enda høyere regnekraft mot båndbredde enn Hawaii.

 

 

Om AMD har lagt inn hardware-løsninger for å spare på minnet har jeg tro på at det ikke er så farlig med "bare" 4GB VRAM, men om de lover driveroptimaliseringer for VRAM-bruk vil jeg bli mer skeptisk. Uansett er det ikke nødvendigvis slik at man trenger mer enn 4GB VRAM utenom ekstreme tilfeller, dagens spillmotorer fyller jo opp VRAMet fordi "det gir ikke mening å ikke gjøre det."

Greit nok at "alle" dagens spill utnytter dårlig minne. Men du må gjerne utdype hva du mente.

 

Rent praktisk skulle egentlig 4GB vært mer enn nok for alle dagens GPUer under spilling dersom det ble brukt noen intelligente cache-mekanismer. Som jeg har skravlet om mange ganger så bruker selv de tyngste spillene neppe mer enn ~1.5 GB i løpet av ett enkelt bilde, så hvis de bruker tilgjengelig GPU-minne som en cache til et større lager med teksturer så kunne de i teorien hatt så store teksturer de bare vil. Jeg har testet med 12 GB på et 4GB-skjermkort. Problemet til nå har vært at det har vært kostbart å overføre data til GPUen, men hvis vi snart kan gjøre denne overføringen uten store forstyrrelser av rendering så kunne vi hatt en kontinuerlig streaming av "uendelig" store landskap.

 

Ifølge flere på Beyond3D skal det være mulig å lagre mindre enn 1GB teksturdata med høyere oppløsning enn de fleste av dagens spill, og det er bare et år siden 4GB ble ansett som mer enn nok for de fleste tilfeller. Problemet jeg ser er at AMD skal konkurrere mot 980 Ti med 6GB og Titan X med 12GB, med mindre ytelsen er vesentlig bedre vil de fleste gå for kortet med ekstra VRAM og tilsvarende ytelse.

 

Fra The Tech Report: http://techreport.com/review/28294/amd-high-bandwidth-memory-explained/2

When I asked Macri about this issue, he expressed confidence in AMD's ability to work around this capacity constraint. In fact, he said that current GPUs aren't terribly efficient with their memory capacity simply because GDDR5's architecture required ever-larger memory capacities in order to extract more bandwidth. As a result, AMD "never bothered to put a single engineer on using frame buffer memory better," because memory capacities kept growing. Essentially, that capacity was free, while engineers were not. Macri classified the utilization of memory capacity in current Radeon operation as "exceedingly poor" and said the "amount of data that gets touched sitting in there is embarrassing."

Lenke til kommentar

Ifølge flere på Beyond3D skal det være mulig å lagre mindre enn 1GB teksturdata med høyere oppløsning enn de fleste av dagens spill, og det er bare et år siden 4GB ble ansett som mer enn nok for de fleste tilfeller. Problemet jeg ser er at AMD skal konkurrere mot 980 Ti med 6GB og Titan X med 12GB, med mindre ytelsen er vesentlig bedre vil de fleste gå for kortet med ekstra VRAM og tilsvarende ytelse.

 

Fra The Tech Report: http://techreport.com/review/28294/amd-high-bandwidth-memory-explained/2

When I asked Macri about this issue, he expressed confidence in AMD's ability to work around this capacity constraint. In fact, he said that current GPUs aren't terribly efficient with their memory capacity simply because GDDR5's architecture required ever-larger memory capacities in order to extract more bandwidth. As a result, AMD "never bothered to put a single engineer on using frame buffer memory better," because memory capacities kept growing. Essentially, that capacity was free, while engineers were not. Macri classified the utilization of memory capacity in current Radeon operation as "exceedingly poor" and said the "amount of data that gets touched sitting in there is embarrassing."

 

I teorien så burde omtrent 1 GB med cachet tenksturdata og meshes holde til det meste. Du husker sikkert Rages Megatexture som prøvde nettopp på en slik caching, men som feilet pga. "texture popping". Grunnen til dette er at de brukte en teknikk som kalles "sparse textures", hvor hele megateksturen er virtuelt "allokert" på GPUen men bare deler av den ligger faktisk der, og så har den en page table for å mappe opp lappeteppet av biter som er der. Denne teknikken bruker feedback fra GPU for å hente inn mer data, dvs. når en tile trengs i et høyere mip-nivå enn det som ligger på GPUen, så sendes et hint tilbake til CPUen, men så fortsetter rendering uten den, og den nye teksturen kommer inn til senere bilder. Dette er nøyaktig grunnen til at teksturer dukker opp for sent i Rage; du snur kamera og så kommer teksturene noen bilder senere.

 

Løsningen på dette er naturligvis prefetching av teksturer og en relativt raus algoritme som cacher rikelig. Så la oss si at du slår på stortrommen og cacher så rikelig at du bruker 2 GB, så burde dette egentlig være mer enn nok til å rendre én skjerm i 4K. Selvsagt kommer andre renderbuffere i tillegg, men det totale minneforbruket kommer langt under 4 GB.

 

Men jeg klandrer forøvrig ikke AMD eller Nvidia for dette, dette er da tross alt spillutviklernes ansvar. Det er mulig å "eliminere" minnekapasitet som flaskehals for spill i dag, det er bare snakk om litt innsats.

 

En sidenotis er at om vi fikk spill med 10-20 GB store brett så hadde det også gjort noe med størrelsen på spillene. De måtte nok brukt lossy komprimering à la JPEG. Fremdeles ville dette betydd spill i 50-100 GB størrelsen, og da spørs det om Steam-spill bør få et valg om å laste ned "high resolution pack" for alle de på svakere maskinvare.

 

Lenke til kommentar

4 Fury kort med Fiji og HBM, 1.5x perf/watt over 290x på Fury X skulle vel bety at med TDP på ~275w +/- ,10% mer enn 290x blir den ~60% kjappere enn 290x, da står vel utsagnet deres om verdens raskeste GPU rimelig trygt gitt at det de sier er riktig. Det de fremhevet svært så heftig var OC potensialet, 50C på X-en i 4k@60fps m. siste t,raider skulle vel tilsi at det er litt å gå på...

 

Nano@15cm, med 2x perf/watt og "significantly better performance then 290x", kan jo bli et drømmekort for folk med HTPC o.l...

Faktisk en spennende og brukbar Fiji lansering med 649$ og 549$ på Fury X WC og Fury der Fury X er i butikkene senest 24 juni, 14 juli for Fury da sikkert kun med 3. partskjølere siden de ikke viste det frem med noen referansekjøler...

Endret av Ourasi
Lenke til kommentar
Gjest bruker-293283

Samme pris som 980ti for fury x, da er det bare benchmarks som mangler. 

Endret av bruker-293283
Lenke til kommentar

4 Fury kort med Fiji og HBM, 1.5x watt/perf over 290x på Fury X skulle vel bety at med TDP på ~275w blir den ~60% kjappere enn 290x, da står vel utsagnet deres om verdens raskeste GPU rimelig trygt. Det de fremhevet svært så heftig var OC potensialet, 50C på X-en i 4k@60fps m. siste t,raider skulle vel tilsi at det er litt å gå på...

 

Nano@15cm, med 2x watt/perf og "significantly better performance then 290x", kan jo bli et drømmekort for folk med HTPC o.l...

Faktisk en spennende og brukbar lansering med 649$ og 549$ på Fury X WC og Fury der Fury X er i butikkene senest 24 juni, 14 juli for Fury...

performance/watt, ikke omvendt.

Lenke til kommentar

4 Fury kort med Fiji og HBM, 1.5x watt/perf over 290x på Fury X skulle vel bety at med TDP på ~275w blir den ~60% kjappere enn 290x, da står vel utsagnet deres om verdens raskeste GPU rimelig trygt. Det de fremhevet svært så heftig var OC potensialet, 50C på X-en i 4k@60fps m. siste t,raider skulle vel tilsi at det er litt å gå på...

 

Nano@15cm, med 2x watt/perf og "significantly better performance then 290x", kan jo bli et drømmekort for folk med HTPC o.l...

Faktisk en spennende og brukbar lansering med 649$ og 549$ på Fury X WC og Fury der Fury X er i butikkene senest 24 juni, 14 juli for Fury...

Gleder meg til benchmarks :)
Lenke til kommentar

Ourasi : Tror du blander litt , i utgangspunktet snakker Amd om at de har forbedret ytelsen med 1.5 i forhold til effektforbruk til forrige generasjon , spesielt spennende er det jo at Fury Nano vil ha en ytelse på 2x 290X og da vil jeg anta at de andre kortene vil også yte noe bedre enn Nano , spesielt den vannkjølte varianten. Ikke minst vil det ha et effektforbruk på estimert 140Watt ( Half the wattage of 290x).

 

Tatt fra forsiden til Guru3d.

Lenke til kommentar

1.5x perf/watt skulle det stå, byttet om på dem bare... Ikke helt bare bare i denne sammenhengen, men jeg sitter i min egen verden og redigerer posten og glemmer at alle leser den mens jeg myser på skjermen i kveldsolen og spotter den ene leifen etter den andre... ;P

Endret av Ourasi
Lenke til kommentar

Det som slo meg når jeg tittet på livestreamen var at AMD denne runden presenterte lekre kort med eksklusivt utseende, mens de på tidligere lanseringer (som jeg har sett på i allefall) kun har vist frem kort med den vanlige plastikkreferanse looken. Det er tydelig at denne dama som nå leder AMD fikset dette på første forsøk, mens den gamle gjengen..... :D

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...