Gå til innhold

AMD kjøper FPGA-skaperen Xilinx


Anbefalte innlegg

Videoannonse
Annonse

Jeg sliter litt med å akseptere at dette akselerator paradigmet faktisk skal komme. Det blir veldig komplekst å forvalte over tid og skal bli vanskelig å forsvare økonomisk selv om det vil gi 10x-100x forbedring av noen oppgaver i noen år. Jeg tror heller det vil lande noen komponenter som har mer generell nytte. TCAM/BCAM, cell-type arkitektur med scratchpad minne og wide instruction word/GPU/TPU til eksempel. Da blir akselerator nisjene veldig smale og vi kan løse mer i software, som er mye billigere.

Den viktigste hardware utviklingen i dag er anmarsjen av åpne ISA som RISC-V. Riktignok et klassisk CPU ISA som ikke kommer til å flytte fjell rent ytelsesmessig, men det vil gjøre hw/sw co-design mulig og løfte sikkerheten betraktelig, noe som er den største utfordringen vi har i moderne digital transformasjon. Det er rett og slett begrensninger i hvor kritisk en buggy maskin kan være.

Endret av Anders Jensen
Lenke til kommentar
Anders Jensen skrev (3 timer siden):

Jeg sliter litt med å akseptere at dette akselerator paradigmet faktisk skal komme Det blir veldig komplekst å forvalte over tid og skal bli vanskelig å forsvare økonomisk selv om det vil gi 10x-100x forbedring av noen oppgaver i noen år. Jeg tror heller det vil lande noen komponenter som har mer generell nytte. TCAM/BCAM, cell-type arkitektur med scratchpad minne og wide instruction word/GPU/TPU til eksempel. Da blir akselerator nisjene veldig smale og vi kan løse mer i software, som er mye billigere.

De fleste oppgavene løses greit med generisk cpu (+ semi generisk gpu).

De _virkelig_ sære oppgavene som skal løses år inn og år ut i massivt volum løses nok best med dedikert ASIC. F.eks maskinlæring-inferens.

Så er spørsmålet om det er noen oppgaver igjen som er så sære, så tunge/latency-følsomme, hvor algoritmene må endres/tunes i løpet av hw sin levetid, som mapper så dårlig til SIMD og lignende paradigmer, men som samtidig har for lavt volum til å egne seg for ASIC.
 

Tradisjonelt kunne det være ting som militær radar som hadde lite volum, stor betalingsvilje, stort energi-budsjett og stramme krav til forsinkelse. Jeg tviler på at det er sånne applikasjoner Intel og AMD sikter mot. De ser nok noen oppgaver i datasenter/HPC som kan gjøres mye mer effektivt.

CPU og GPU har blitt ganske god på parallelliserbare oppgaver. Man kan ta en vektor på inntil 512 bit, laste fra minnet, gjøre passe komplekse operasjoner på registeret, og lagre tilbake til minnet. Utover dette så kan man tråde til 16 eller tusenvis av kjerner. Men oppgaver som er sekvensielle i natur greier typisk ikke å nyttiggjøre seg breie SIMD-maskiner. Oppgaver som har spesielle minnebehov («streaming» evt compute-i-minnet) kan være energi-ineffektiv på cpu. Oppgaver som krever en sær bit-eksakt oppførsel er ofte ineffektive på generiske 8/16/32-bit maskiner.

-k

 

Endret av knutinh
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...