Gå til innhold

AMDs kraftigste «prosessorgrafikk» noen sinne


Anbefalte innlegg

 

 
Jo, det hadde vi hatt, men de hadde droppet Gen1 HBM minne, da Nvidia mener at 4GB er for lite, spesielt til GPGPU bruk. Gen2 HBM som kommer i 2016 støtter opp til 32GB.

Når 20nm ble kansellert som en High-performance prosess ble det siste spiker i kisten for HBM Gen1 for Nvidia. Det er ikke plass til nok ALU'er på en 28nm die til at minnebåndbredde blir en flaskehals, selv om mesteparten av DP ALU'ene også ble tatt ut av GM200.

 

Det vil jo si at SK Hynix hadde utviklet gen1 HBM minne, uten at noen ville bruke det, pga begrensningen til 4 GB. Har ikke interessen til AMD, som vil bruke det på tross av 4GB begresningen hatt noe å si for utviklingen av gen1 og gen2 som NVIDIA kommer til å bruke senere?

 

Dessuten har AMD alltid hatt raskere minne enn det NVIDIA har hatt. Hadde en venn som valgte AMD, fordi (tror det var GTX 670? eller 660 ti) det tilsvarende NVIDIA kortet hadde en minnebegrensning som ga AMD en fordel når det kom til heftig overklokking. AMD har jo uansett vært foran nvidia når det kommer til hastighet på minne, uansett om nvidia kunne hatt HBM eller ikke. Det er jo en annen diskusjon hvor mye det betyr, og hvor mye det koster AMD. Nvidia har jo tross alt mer områder, som gjerne og er viktigere der de er foran AMD enn motsatt. Jeg prøver på ingen måte å si at de ligger likt, bare påpeker at NVIDIA ikke knuser AMD på alle områder.

Lenke til kommentar
Videoannonse
Annonse

Det vil jo si at SK Hynix hadde utviklet gen1 HBM minne, uten at noen ville bruke det, pga begrensningen til 4 GB. Har ikke interessen til AMD, som vil bruke det på tross av 4GB begresningen hatt noe å si for utviklingen av gen1 og gen2 som NVIDIA kommer til å bruke senere?

HBM Gen1 ble forsinket spesielt på grunn av designet til "interposer" som kobler GPU og minne-stackene sammen men også fordi både AMD og Nvidia måtte endre GPU-design grunnet at 20nm ble kansellert som produksjonsnode for high-end brikker. Planen var HBM-produkter for over et år siden.

 

Dessuten har AMD alltid hatt raskere minne enn det NVIDIA har hatt. Hadde en venn som valgte AMD, fordi (tror det var GTX 670? eller 660 ti) det tilsvarende NVIDIA kortet hadde en minnebegrensning som ga AMD en fordel når det kom til heftig overklokking. AMD har jo uansett vært foran nvidia når det kommer til hastighet på minne, uansett om nvidia kunne hatt HBM eller ikke.

Det stemmer ikke helt nå lenger.

Nvidia har brukt 512-bit minnebus før de også (GT200), og de har med Kepler og Maxwell også hatt mer aggressiv minnefrekvens en hva AMD har brukt.

Per dags dato så er GK110 og GM200 de brikkene med høyest minnebåndbredde.

Nvidia har også høyere båndbredde tilgjengelig per FLOP (regnekraft).

 

Det er jo en annen diskusjon hvor mye det betyr, og hvor mye det koster AMD. Nvidia har jo tross alt mer områder, som gjerne og er viktigere der de er foran AMD enn motsatt. Jeg prøver på ingen måte å si at de ligger likt, bare påpeker at NVIDIA ikke knuser AMD på alle områder.

Nei, det gjør de heldigvis ikke.

Men problemet er som du selv sier "hvor mye koster dette AMD". "Fiji" er et lavtvolumskort med ny og svindyr teknologi som AMD ikke kommer til å tjene penger på. De burde virkelig brukt resursene sine på å konkurrere mot GM204, GM206 og GM107.

 

HBM kunne ha appellert til pro-markedet, og til GPGPU bruk, men i disse markedene er 4GB NO-GO.

  • Liker 1
Lenke til kommentar

 

 

Du har nok rett der :) Men AMD skal ha honør for at de har pushet på for å få frem mange spennende teknologier fra andre selskaper :)

Stemmer det, var det jeg ville ha frem også. Det er ikke bare NVIDIA som utelukkende ligger foran AMD, AMD er og gode på noen områder og slår NVIDIA på dem. Hvis AMD ikke hadde vist interesse  og jobbet aktivt sammen med SK Hynix hadde vi ikke hatt HBM så raskt som vi kommer til å få det. Så AMD skal absolutt ha litt ære her for utviklingen av HBM minne til GPUer.
Jo, det hadde vi hatt, men de hadde droppet Gen1 HBM minne, da Nvidia mener at 4GB er for lite, spesielt til GPGPU bruk. Gen2 HBM som kommer i 2016 støtter opp til 32GB.

Når 20nm ble kansellert som en High-performance prosess ble det siste spiker i kisten for HBM Gen1 for Nvidia. Det er ikke plass til nok ALU'er på en 28nm die til at minnebåndbredde blir en flaskehals, selv om mesteparten av DP ALU'ene også ble tatt ut av GM200.

 

Hadde et kjapt søk på google nå, og der sto det at nvidia satset på en annen minne-standar. Nvidia feilet der, og måtte hoppe på AMD sitt valg av minne til slutt.. Vet du hvorfor nvidia sitt valg av minne ble skrotet? På papiret så det veldig lovende ut!

Lenke til kommentar

Hadde et kjapt søk på google nå, og der sto det at nvidia satset på en annen minne-standar. Nvidia feilet der, og måtte hoppe på AMD sitt valg av minne til slutt.. Vet du hvorfor nvidia sitt valg av minne ble skrotet? På papiret så det veldig lovende ut!

Sikkert ett eller annet Semiacruate har skrvet det?

 

Det er uansett feil. Den andre minnetypen (som også Nvidia har jobbet og jobber med) er HMC (Hybrid Memory Cube). Dette er ikke minne som er egnet for grafikkort. Dette er minne for CPU som er optimert for et helt annet access pattern en hva GPU-minne er. (Husk at Nvidia også lager ARM-prosessorer, det er her HMC er tenkt.)

 

Intel blir første til å ta ibruk HMC på Xeon Phi prosessorene med kodenavn "Knights Landing". Intel kaller dette for MCDRAM.

 

HBM har alltid vært ment som en oppfølger til GDDR5 som er en JEDEC-standard. Nvidia har hele tiden planlagt å bruke dette, først med Volta, og også på Pascal etter at Nvidia sitt veikart ble revidert i begynnelsen av 2014.

 

Edit: La til presisjon om HMC

Endret av HKS
  • Liker 1
Lenke til kommentar

 

Hadde et kjapt søk på google nå, og der sto det at nvidia satset på en annen minne-standar. Nvidia feilet der, og måtte hoppe på AMD sitt valg av minne til slutt.. Vet du hvorfor nvidia sitt valg av minne ble skrotet? På papiret så det veldig lovende ut!

Sikkert ett eller annet Semiacruate har skrvet det?

 

Det er uansett feil. Den andre minnetypen (som også Nvidia har jobbet og jobber med) er HMC (Hybrid Memory Cube). Dette er ikke minne som er egnet for grafikkort. Dette er minne for CPU som er optimert for et helt annet access pattern en hva GPU-minne er.

 

Intel blir første til å ta ibruk HMC på Xeon Phi prosessorene med kodenavn "Knights Landing". Intel kaller dette for MCDRAM.

 

HBM har alltid vært ment som en oppfølger til GDDR5 som er en JEDEC-standard. Nvidia har hele tiden planlagt å bruke dette, først med Volta, og også på Pascal etter at Nvidia sitt veikart ble revidert i begynnelsen av 2014.

 

Takk for et utfyldende svar HKS :)

Lenke til kommentar

Da har Intel lansert sine Brodwell prosessorer med integrert grafikk (GT3e) og eDRAM. eDRAM (Embedded DRAM) fungerer som en "level 4 cache" for både CPU og GPU, etterhvert ser nok Intel for seg å bruke HMC-minne som en erstatning for både DDR4 og eDRAM.

 

Heldigvis for AMD så konkurerer ikke Intel i samme prisklasse.

Uansett, så har AMD mistet "tronen" for raskeste integrerte grafikk:

 

http://www.anandtech.com/show/9320/intel-broadwell-review-i7-5775c-i5-5765c/7

Endret av HKS
Lenke til kommentar

snip

 

Så på tallene nå, og det stemmer det du sier. Selv om GTX 980 har ganske lav båndbredde, er både 780Ti og Titan X litt over R9 290X i båndbredde. Ikke helt sikker på hvordan det er med overklokking, for som du sier har jo NVIDIA klokket dem aggressivt, fra GTX 770 og utover. Jeg så og på noen benchmarks, og jeg fant ikke at resultatene ble bedre for AMD ved høyere oppløsninger i forhold til NVIDIA sammenlignet med 970/780Ti. Dermed virker det absolutt som noe som hører fortiden til.

 

Selv om HBM ble forsinket pga den mislykkede overgangen til 20 nm, så tror jeg fortsatt at det hjelper prosessen med at AMD går for det nå på sitt nye kort. Likevel er jeg og enig i at det nødvendigvis ikke er verdt det. Det er jo begrenset til 4 GB, som gjør at det bare kommer til spill-kort. Jeg har og sett tester på høye oppløsninger der titan X gjør det langt bedre på grunn av sine 12 GB VRAM i forhold til 980 sine 4 GB. Når AMD også ligger bak i ytelse blir det jo et spørsmål om de ekstra kostnadene ved HBM gen1 virkelig var verdt pengene, i forhold til å begynne å bruke det med Gen2.

 

Ellers imponerende tall fra Intel sin nye integrerte grafikk. De slår AMD med ganske god margin her. Hvis de får lignende ytelse tilgjengelig i flere CPUer med Skylake ser det virkelig mørkt ut for AMD, som vil miste sin eneste fortrinn i CPU markedet. Du har jo og OEM er som Apple, som bruker samme CPU som andre, men får Intel til å sette inn ekstra EU som gir den kraftigere grafikk i forhold til sine konkurrenter. Forhåpentligvis begynner andre produsenter å gjøre det samme.

Lenke til kommentar

De har helt klart utrolig mange bokstaver, og de er vel få som vet hva alle betyr. Jeg vet en god del av dem, de som er vanlige slik som U,M, HQ, Y og K. De kunne nok gjerne ha kuttet litt ned på de som ikke er mye brukt for å gjøre det lettere å huske. Likevel ville jeg ikke kalt systemet forvirrende. Så lenge du vet hva bokstavene står for, vet du akkurat hvilken type CPU og i mange tilfeller hvilken type PC det er. Ellers måtte du ha undersøkt, enten via tester eller sett på en liste over specs for å se hvilken type CPU det er.

 

Vanskelig å huske? Helt klart. Forvirrende? Jeg liker systemet, gjør at du lett kan identifisere CPUene og finne ut hva den passer til.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...