Gå til innhold

Mer GDDR4 fra Samsung


Anbefalte innlegg

link

her kanskje? :)

5609476[/snapback]

Akkurat, det er bare spekulasjoner. :)

5609555[/snapback]

 

Det vel veldig trolig at de kommer til å bruke GDDR4 i de nye skjermkortene. Har brukt GDDR3 i en 3-4 generasjoner nå. på tide med et skifte.

ATI støtter det allerede med minnekontrolleren sin. 7900 kommer neppe til å bruke GDDR4, men G80 vil aller mest sannsynlig gjøre det.

 

EDIT:

omformulerte meg litt

Endret av O.J
Lenke til kommentar
Videoannonse
Annonse
Håper på at det er disse minnebrikkene som vil bli brukt på G80 og R600, da burde de hvertfall få godt med båndbredde.

 

Foresten: Blir det ikke feil å si at frekvensen er på 3,2GHz? Vet at dette er den effektive frekvensen, men blir det ikke litt misvisende når de faktisk operer på halvparten altså 1,6GHz?

5609908[/snapback]

Hadde du plutselig snudd trenden og brukt den reele frekvensen ville nok mange blitt missledet, og trodd GDDR4 høres dårligere enn GDDR3 som oppererer på rundt 1,8ghz (effektive) :roll:

Lenke til kommentar
Stiller meg sterkt tvilende på om de kjernene kan utnytte 1GB GDDR4 minne.

Men kommer sikkert til å komme versjoner med det innen året er omme.

5611258[/snapback]

Si ikke det. Nå er jo 1,8GHZ memory fortsatt "flaskehalsen", og G80 kommer nok til å bli en goood del bedre på kjerne siden, og jeg vil nok tro minnet og kjernen vil operere gasnke så bra sammen, uten de store flaskehalsene.

Ville det ikke vært en stor fordel å ha 512bitt's minnebuss på kortet?

Endret av andrull
Lenke til kommentar

VRAM størrelse og båndbredde er ikke så forbundet til hverandre som det mange tror mtp hvor høy minnebåndbredde kortet må ha for å kunne dra utbytte av så og så mye minne. De bare skalerer mer eller mindre paraellt med at minnet blir billigere og høyere specet med tiden slik at IHV'ene kan bruke mer minne med høyere klokkehastighet. Dagens kort hadde nok fint ha kunnet utnytte 1GB vram.

 

512bit minnegrensesnitt vil øke kompleksiteten merkant og jeg tviler sterkt på G80 eller R6xx vil ha dette, det ville neppe være særlig økonomisk. Men høyere teoretisk båndbredde er ikke den eneste løsningen og det er bare en "liten" del av bildet. Mer viktig er hvordan GPU'en håndterer eller mer spesefikk sparer båndbredde og her er det rom for forbedringer; Mer effektiv minnekontroller, bedre komprimering, eDRAM etc.

Endret av MistaPi
Lenke til kommentar
hvordan latency er det på slike brikker da?

5609040[/snapback]

Aksesstiden er oppgitt til 0,6 ns.
:roll:

5609120[/snapback]

Heh, :\ jeg tenkte i forhold til cas osv :p Men jeg er kansje på viddene :w00t:

5609151[/snapback]

En Cas Latency på 0,6 ns høres totalt urealistisk ut. For SDR-minne var CAS Latency på 15-30ns. DDR har fra 10-22ns, DDR2 har fra 9-15ns, DDR3 kommer til å få rundt 8-12ns. Grafikkminne har normalt lengre CAS latency enn dette siden det spiller liten rolle for ytelsen. GDDR3-minne har rundt 13-20ns. Latencyen kan uansett ikke bli kortere enn 1 klokkesyklus for DRAM-minnet uansett hva man gjør. Altså ikke klokkehastighetene på minnebussen men internt i minnebankene. På GDDR3-1600 vil dette si 200MHz. Dvs. at CAS Latency umulig kan bli lavere enn 5ns, og praktisk talt neppe under 10ns på den klokkehastigheten. Derfor sier jeg at de oppgitte "0,6ns aksesstid" er totalt urealistisk. Jeg vet ikke hvor X-Bit labs har hentet dette tallet fra men alt tyder i hvertfall på at det er en stor missforståelse.

 

Sink_123: CAS Latency kan måles på to måter: I antall klokkesykluser på minnebussen eller i tid (nanosekunder). Å måle det i antall klokkesykluser er ofte veldig forvirrende siden man må tenke klokkehastighet for å vite hva det egentlig betyr i reell tid. Se f.eks på DDR-400 CL2 vs. DDR2-800 CL4. Mange tror at DDR2-minnet har dårligere latency enn DDR-minnet, men det stemmer ikke fordi klokkesyklusene går jo dobbelt så raskt. 4 klokkesykluser på 800MHz datarate er akkurat den samme tiden som 2 klokkesykluser på 400MHz datarate.

Lenke til kommentar
"Likevel er det trolig at det vil ta litt tid før skjermkortprodusentene kan greie å utnytte fulle 3,2 GHz fra minnebrikkene fra Samsung."

 

Nå er vel minnehastigheter en kjent begrensning og grunnen til at man fra blant annet 9700 gikk til 256bit bus. Det som heller tar noe tid er å få ut nye brikker med minnekontroller som støtter GDDR4.

5609234[/snapback]

Det tenkte jeg også. Minnebåndbredden har lenge sneglet seg oppover fordi det er for upraktisk og dyrt å utvide minnebussen fra 256 til 512 bit. Endelig får vi et skikkelig løft. Dagens råeste skjermkort klarer opp mot ca 55 GB/s, mens dette GDDR4-minnet er god for hele 106 GB/s dersom minnebussen er 256 bit. Toppserien av skjermkort vil nok nyte veldig godt av dette akkurat der det teller: I de høyeste oppløsningene med mye AA og AF.

Lenke til kommentar
Foresten: Blir det ikke feil å si at frekvensen er på 3,2GHz? Vet at dette er den effektive frekvensen, men blir det ikke litt misvisende når de faktisk operer på halvparten altså 1,6GHz?

5609908[/snapback]

Vel, frekvens kan telles på så mange måter. Ordet frekvens er egentlig synonymt med hyppighet og kan måles i f.eks Hertz (Hz). Hz er synonymt med "per sekund". Hz er altså en måleenhet for hvor mange ganger noe hender i løpet av et sekund. I motsetning til hva mange tror er det ikke gitt at det er klokkesykluser som skal telles. Det kan være alt fra antall omdreininger per sekund på en motor til antall maur som går inne og ut av en maurtue per sekund.

 

Når vi snakker om minnet i artikkelen har nok tallene disse betydningene:

Tallet 3,2GHz måler nok antall bit som overføres per pinne per sekund.

Tallet 1,6GHz måler nok antall klokkesykluser per sekund på databussen.

Det førse tallet er dobbelt så høyt som det siste på grunn av DDR-teknikken.

I tillegg har vi et tall som ikke er nevnt. Det er 200MHz som er klokkehastigheten selve DRAM-cellene inni minnechip'en jobber på. Litt forenklet forklart så er databussen internt i minnet på GDDR4 hele 16 ganger bredere enn den er eksternt. Hvis hver brikke har f.eks 32bit bussbredde (8 brikker a 32bit gir en bussbredde på totalt 256bit) så har de internt 512 bit minnebuss internt. For hver interne klokkesyklus hentes 16 bit samtidig, stables etter hverandre i en såkalt multiplexer og sendes deretter seriellt ut på en pinne på minnebussen. På den måten blir 200MHz internt på en intern 512bit minnebuss til en ekstern buss på 32bit og 3200MHz.

Lenke til kommentar
Ringbus minnekontrolleren i R520 og R580 sies å kunne håndtere tom. GDDR5 når det kommer. Her ligger ATI langt foran Nvidia.

5612212[/snapback]

:!: I og med at GDDR5 ikke er en ferdig spessifisert standard enda, så stemmer nok ikke det! :D

 

Men du er gjerne velkommen til å dokumentere den påstanden der...

Lenke til kommentar
Det tenkte jeg også. Minnebåndbredden har lenge sneglet seg oppover fordi det er for upraktisk og dyrt å utvide minnebussen fra 256 til 512 bit. Endelig får vi et skikkelig løft. Dagens råeste skjermkort klarer opp mot ca 55 GB/s, mens dette GDDR4-minnet er god for hele 106 GB/s dersom minnebussen er 256 bit. Toppserien av skjermkort vil nok nyte veldig godt av dette akkurat der det teller: I de høyeste oppløsningene med mye AA og AF.

5612386[/snapback]

AF er mer tex begrenset et noe annet og med høyere oppløsning blir kortet som regel raskere pixel shader begrenset enn båndbredde begrenset, samt at de båndbredde besparene funksjonene fungerer bedre i høyere oppløsninger. X1900 er opptil ~50% raskere enn X1800XT i 2560x1600 i dagens spill, mens i 1600x1200 er den "bare" opptil ~30% raskere (med untak av AoE3). Men spesielt FP buffers (HDR) spiser raskt opp båndbredde (og minne) som pac-man på steorider, så høyere båndbredde vil komme bra med i fremtiden.

Lenke til kommentar
Gjest Slettet+9018234
nå kommer årets spørsmål: "har en kapasitet på 512 Mbit" betyr det at man må ha 2 brikker for og få 1 mb ram...? og 1000 brikker for og få 512mb?

 

For guds skyld, ikke bland MBit og MB. Det er forskjell på minnebåndbredde og faktisk kapasitet. jeg foreslår du leser hva simen skrev.

 

mvh

Lenke til kommentar

[GDI]Raptor:

Ang. ATI ring-bus minnekontroller og dokumentasjon. Klart jeg kan det ;)

 

http://www.guru3d.com/article/Videocards/315/5/

With the introduction of the X1000 including the now X1900 family of ATI Radeon cards next to the big internal architectural overhaul throughout the chip design, one of the biggest and most impressive changes in the graphics core simply has to be the new memory controller. It seriously is a piece of art if you study closer. Once we got the specs presented to us I immediately had to think about the Creative Labs X-Fi, which we recently reviewed. Both products are of course completely different and have, well not very much in common except one thing, an internal ring bus design. Included onto the R580 (Radeon 1900) is the new memory controller that works on a very advanced manner.
Another good thing to know is that the new memory controller can handle any kind of DDR memory, whether that is DDR1 or gDDR3 it will handle it fine. Next to that, and less important for you though, it should be very future proof as it's gDDR4 ready and probably can even work with gDDR5 which is in early design stages already. It has been built with that in mind. It can handle extremely high clocks, it's very dynamic and very efficient according to the theory. The design in all honesty looks like a classy piece of art. Of course the raw performance and effect on overall framerate will in the end have the final say.
Endret av Theo343
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...