Gå til innhold

Intel tar i bruk 64-bit ARM-arkitektur i ny brikke


Anbefalte innlegg

Videoannonse
Annonse

Men hadde ikke en slik cpu blitt for svak for windows 10?

Selv om det faktisk vil gå på minstekrav?

 

Tror Celeron\Pentium\Atom blir nærmeste å sammenlignde den med?

 

Eneste den kan brukes til er router\ server\switcher etc.

Kanskje cluster etc?

Endret av LMH1
Lenke til kommentar

Jeg begriper ikke dette FPGA hysteriet. Tror det er mer en reaksjon på at industrien vet at x86 ikke holder lengre, samtidig som man er redd for å designe noe nytt pga Itanium fiaskoen. Det vi trenger er et åpent CPU design som åpner for hybrid løsninger der noen kjerner er raske (responstid optimalisert) mens andre er effektive (throughput optimalisert). Alle nye design etter IA64 har fokusert på kun sistnevnte, og mange er lukkede design. Det holder ikke. Antagelig vil google, facebook, amazon eller noen tilsvarende fra asia ta grep og disrupte hele hardware bransjen innen 5 år, for Intel og IBM feiler totalt og RISC-V er ikke helt konge det heller, om enn godt.

  • Liker 1
Lenke til kommentar

Jeg begriper ikke dette FPGA hysteriet. Tror det er mer en reaksjon på at industrien vet at x86 ikke holder lengre, samtidig som man er redd for å designe noe nytt pga Itanium fiaskoen. Det vi trenger er et åpent CPU design som åpner for hybrid løsninger der noen kjerner er raske (responstid optimalisert) mens andre er effektive (throughput optimalisert). Alle nye design etter IA64 har fokusert på kun sistnevnte, og mange er lukkede design. Det holder ikke. Antagelig vil google, facebook, amazon eller noen tilsvarende fra asia ta grep og disrupte hele hardware bransjen innen 5 år, for Intel og IBM feiler totalt og RISC-V er ikke helt konge det heller, om enn godt.

 

Tydelig at du ikke begriper FPGA hysteriet, ja... Skjønner ikke helt hvorfor du nevnte det i det heletatt i sammenheng med resten av innelegget.

Lenke til kommentar

 

Jeg begriper ikke dette FPGA hysteriet. Tror det er mer en reaksjon på at industrien vet at x86 ikke holder lengre, samtidig som man er redd for å designe noe nytt pga Itanium fiaskoen. Det vi trenger er et åpent CPU design som åpner for hybrid løsninger der noen kjerner er raske (responstid optimalisert) mens andre er effektive (throughput optimalisert). Alle nye design etter IA64 har fokusert på kun sistnevnte, og mange er lukkede design. Det holder ikke. Antagelig vil google, facebook, amazon eller noen tilsvarende fra asia ta grep og disrupte hele hardware bransjen innen 5 år, for Intel og IBM feiler totalt og RISC-V er ikke helt konge det heller, om enn godt.

Tydelig at du ikke begriper FPGA hysteriet, ja... Skjønner ikke helt hvorfor du nevnte det i det heletatt i sammenheng med resten av innelegget.

 

Altså jeg kunne sikkert forklart det noe mer utdypende. Poenget med FPGA er jo selvsagt time to market og kostnadsreduksjon på leveranse av nye hw-features. Jeg har selv designet FPGA og ASIC som student, så jeg tror jeg har et minimum av begrep om nytten. Men jeg ser ærlig talt ikke det store behovet. Gang på gang har vi hatt disse general purpose CPU konkurrentene, uten at de har tatt av fordi CPU har tatt de igjen. Jeg tror det blir tilfellet nå også, men alle disse høy-effektivitets designene som har dukket opp i vaket bak GPUene er ikke nok. 

  • Liker 1
Lenke til kommentar

Det vi trenger er et åpent CPU design som åpner for hybrid løsninger der noen kjerner er raske (responstid optimalisert) mens andre er effektive (throughput optimalisert). Alle nye design etter IA64 har fokusert på kun sistnevnte, og mange er lukkede design. 

Vil si at Power-arkitekturen opprettholder en god balanse mellom throughput, kjerne, og single-thread-ytelse. Den er nå også åpen.

Lenke til kommentar

 

Det vi trenger er et åpent CPU design som åpner for hybrid løsninger der noen kjerner er raske (responstid optimalisert) mens andre er effektive (throughput optimalisert). Alle nye design etter IA64 har fokusert på kun sistnevnte, og mange er lukkede design. 

Vil si at Power-arkitekturen opprettholder en god balanse mellom throughput, kjerne, og single-thread-ytelse. Den er nå også åpen.

Openpower er på sporet av noe, men du kan ikke hevde at ett CPU core design er optimalisert for BÅDE responstid (thread strength som IBM kaller det) OG effektivitet dvs throughput og siden vi er effektbegrenset; throughput/watt. De to er gjensidig utelukkende, uansett hvor mye SMT-hype man tror på. Det er derfor en trenger to design. IBM og nVidia vil sikkert komme opp med noe bra der, men de helt store vyene har jeg ikke sett. Mer integrering av det samme gamle.

Lenke til kommentar

Jeg begriper ikke dette FPGA hysteriet. Tror det er mer en reaksjon på at industrien vet at x86 ikke holder lengre, samtidig som man er redd for å designe noe nytt pga Itanium fiaskoen. Det vi trenger er et åpent CPU design som åpner for hybrid løsninger der noen kjerner er raske (responstid optimalisert) mens andre er effektive (throughput optimalisert). Alle nye design etter IA64 har fokusert på kun sistnevnte, og mange er lukkede design. Det holder ikke. Antagelig vil google, facebook, amazon eller noen tilsvarende fra asia ta grep og disrupte hele hardware bransjen innen 5 år, for Intel og IBM feiler totalt og RISC-V er ikke helt konge det heller, om enn godt.

Generiske CPU-er er (sammen med høynivå programmeringsspråk og kompilatorer) kjempegode til å løse store sett av generelle oppgaver med moderat kost, moderat utviklingstid og moderat effekt/varme. Så som å snurre et OS i mobiltelefonen som gjøre masse rare gøyale ting med høynivå apper og rik brukerinterface og gjenbruk av tunge open-source software stacker.

 

Hvis oppgaven din derimot er å beregne en FFT mange ganger per sekund i en radar-installasjon i 20 år, eller å løse en differensial-ligning i et system for å spå været eller å knekke passord så er det et helt annet sett forutsetninger enn hva cpu-er normalt er designet for å gjøre (effektivt), og følgelig kan konkurerende teknologier være "bedre" i enkelte tilfeller. Jeg har sett tall på hvor mye energi det koster å flytte et flyttall fra minnet og til cpu og tilbake, kontra energien det koster å gjøre en flyttalls multiplikasjon på samme flyttall for x86, og det var slående.

 

Om det er GPU, FPGA, DSP, custom ASIC design kommer an på hvor mange man har tenkt å lage (selge), hvor skviset man er på effekt/varme, hvor mye utviklingskost/risiko man kan ta, hvor godt man kjenner problemet man søker å løse på forhånd.

 

FPGA plasserer seg såvidt jeg forstår i denne konteksten som:

*Høy utviklingskost/risiko (men lavere enn ASIC)

*(Potensielt) høy absolutt regnekraft per enhet

*Relativt høy kost per enhet (evt per "funksjon")

*Dårligere ytelse:effekt enn ASIC

*Bedre egnet til strukturerte, kompakte, repetitive oppgaver enn cpu/gpu

*Funksjonen kan modifiseres ute hos kunden (nesten som software, til forskjell fra ASIC)

 

Jeg synes at det er spennende med hybrider av "ren" FPGA og native cpu-kjerner i den grad dette gjør at man kan få det beste av begge verdener. Jeg synes også det er spennende at HPC-miljøet nå kanskje får boltre seg på hybride x86-fpga platformer hvor de kan komme på nye spennende tvister på algoritmer som kan komme oss andre til nytte.

 

-k

Endret av knutinh
  • Liker 1
Lenke til kommentar

 

 

Det vi trenger er et åpent CPU design som åpner for hybrid løsninger der noen kjerner er raske (responstid optimalisert) mens andre er effektive (throughput optimalisert). Alle nye design etter IA64 har fokusert på kun sistnevnte, og mange er lukkede design. 

Vil si at Power-arkitekturen opprettholder en god balanse mellom throughput, kjerne, og single-thread-ytelse. Den er nå også åpen.

Openpower er på sporet av noe, men du kan ikke hevde at ett CPU core design er optimalisert for BÅDE responstid (thread strength som IBM kaller det) OG effektivitet dvs throughput og siden vi er effektbegrenset; throughput/watt. De to er gjensidig utelukkende, uansett hvor mye SMT-hype man tror på. Det er derfor en trenger to design. IBM og nVidia vil sikkert komme opp med noe bra der, men de helt store vyene har jeg ikke sett. Mer integrering av det samme gamle.

 

Det kan du godt mene, men påstanden om at IBM bare har brydd seg om throughput er positivt feil.

Lenke til kommentar

 

 

Jeg begriper ikke dette FPGA hysteriet. Tror det er mer en reaksjon på at industrien vet at x86 ikke holder lengre, samtidig som man er redd for å designe noe nytt pga Itanium fiaskoen. Det vi trenger er et åpent CPU design som åpner for hybrid løsninger der noen kjerner er raske (responstid optimalisert) mens andre er effektive (throughput optimalisert). Alle nye design etter IA64 har fokusert på kun sistnevnte, og mange er lukkede design. Det holder ikke. Antagelig vil google, facebook, amazon eller noen tilsvarende fra asia ta grep og disrupte hele hardware bransjen innen 5 år, for Intel og IBM feiler totalt og RISC-V er ikke helt konge det heller, om enn godt.

Tydelig at du ikke begriper FPGA hysteriet, ja... Skjønner ikke helt hvorfor du nevnte det i det heletatt i sammenheng med resten av innelegget.

 

Altså jeg kunne sikkert forklart det noe mer utdypende. Poenget med FPGA er jo selvsagt time to market og kostnadsreduksjon på leveranse av nye hw-features. Jeg har selv designet FPGA og ASIC som student, så jeg tror jeg har et minimum av begrep om nytten. Men jeg ser ærlig talt ikke det store behovet. Gang på gang har vi hatt disse general purpose CPU konkurrentene, uten at de har tatt av fordi CPU har tatt de igjen. Jeg tror det blir tilfellet nå også, men alle disse høy-effektivitets designene som har dukket opp i vaket bak GPUene er ikke nok. 

 

 

Jeg er glad det ikke er din manglende fantasi som bestemmer hva som er tilgjengelig på markedet.

Lenke til kommentar

Dette vil kunne åpne for hw-akselerasjon og custom instruksjonssett...

HW-akselerasjon av parallelliserbare signalbehandlingsoperasjoner kan vi allerede gjøre i GPU eller andre spesialiserte ASICs (f.eks Xeon Phi). Rammeverkene for GPU-basert akselerasjon (CUDA, OpenCL, etc.) gjør også dette til en langt enklere oppgave enn full implementasjon på FPGA. Og effektiviteten til disse løsningene er vanligvis høyere enn på FPGA.

Prisen på FPGAer gjør det også vanligvis uaktuelt for forbrukermarkedet. Arealeffektiviteten i en FPGA vil alltid være dårligere enn ASIC siden FPGA er reprogrammerbar, og areal bestemmer stort sett hele prisen på høyvolum halvlederbrikker.

En brikke som dette kan derimot gjøre det greit i embedded-løsninger i industrien, og det er også mot dette markedet disse brikkene blir markedsført. SoC-baserte FPGAer har vært tilgjengelig fra flere leverandører (Xilinx og Altera) i mange år, så det eneste som er nytt i denne saken er at instruksjonssettet har blitt oppgradert fra ARMv7 til ARMv8. Det er også den første store Altera-lanseringen etter at Intel kjøpte Altera. Så dette er strengt tatt ikke et produkt som er designet av Intel, og det er hovedårsaken til at CPU-delen er basert på ARM i stedet for x86.

Siden bruken av slike brikker vanligvis er embeddedløsninger, så spiller det i utgangspunktet ikke så stor rolle hvilket instruksjonssett som brukes. Brikken kommer neppe til å kjøre noe vanlig desktop-operativsystem, og den vanligste grunnen til å putte en CPU i en FPGA er for å slippe å utvikle ALL funksjonaliteten i et HDL-språk (VHDL, Verilog, etc.). Det er langt enklere å skrive f.eks en nettverksstakk og andre støttesystemer i et programmeringsspråk som kan kjøre på et lett operativsystem på en CPU. Også kan kjernefunksjonaliteten puttes i FPGA-delene. Typisk kjernefunksjonalitet kan være high-throughput signalbehandling, interfacing av MANGE I/Os, hard real-time prosessering i sikkehetskritiske systemer (ekstreme krav til latency), osv.

 

Men denne kjernefunksjonaliteten kan også puttes i en ASIC sammen med CPU-kjerne. Dette er den eneste måten å få ned prisen hvis det skal produseres et stort volum, og slike brikker finner du f.eks i profesjonelle nettverksprodukter, etc.

Lenke til kommentar

 

 

 

Jeg begriper ikke dette FPGA hysteriet. Tror det er mer en reaksjon på at industrien vet at x86 ikke holder lengre, samtidig som man er redd for å designe noe nytt pga Itanium fiaskoen. Det vi trenger er et åpent CPU design som åpner for hybrid løsninger der noen kjerner er raske (responstid optimalisert) mens andre er effektive (throughput optimalisert). Alle nye design etter IA64 har fokusert på kun sistnevnte, og mange er lukkede design. Det holder ikke. Antagelig vil google, facebook, amazon eller noen tilsvarende fra asia ta grep og disrupte hele hardware bransjen innen 5 år, for Intel og IBM feiler totalt og RISC-V er ikke helt konge det heller, om enn godt.

 

Tydelig at du ikke begriper FPGA hysteriet, ja... Skjønner ikke helt hvorfor du nevnte det i det heletatt i sammenheng med resten av innelegget.

Altså jeg kunne sikkert forklart det noe mer utdypende. Poenget med FPGA er jo selvsagt time to market og kostnadsreduksjon på leveranse av nye hw-features. Jeg har selv designet FPGA og ASIC som student, så jeg tror jeg har et minimum av begrep om nytten. Men jeg ser ærlig talt ikke det store behovet. Gang på gang har vi hatt disse general purpose CPU konkurrentene, uten at de har tatt av fordi CPU har tatt de igjen. Jeg tror det blir tilfellet nå også, men alle disse høy-effektivitets designene som har dukket opp i vaket bak GPUene er ikke nok.

 

Jeg er glad det ikke er din manglende fantasi som bestemmer hva som er tilgjengelig på markedet.

To meningsløse svar på rad! Du får 6 i initiativ og null i vurdering. Må våre den mest tafatte og samtidig insisterende motdebattant jeg har møtt i år. Kan være det har vært et godt år...
Lenke til kommentar

 

 

 

Det vi trenger er et åpent CPU design som åpner for hybrid løsninger der noen kjerner er raske (responstid optimalisert) mens andre er effektive (throughput optimalisert). Alle nye design etter IA64 har fokusert på kun sistnevnte, og mange er lukkede design.

 

Vil si at Power-arkitekturen opprettholder en god balanse mellom throughput, kjerne, og single-thread-ytelse. Den er nå også åpen.

Openpower er på sporet av noe, men du kan ikke hevde at ett CPU core design er optimalisert for BÅDE responstid (thread strength som IBM kaller det) OG effektivitet dvs throughput og siden vi er effektbegrenset; throughput/watt. De to er gjensidig utelukkende, uansett hvor mye SMT-hype man tror på. Det er derfor en trenger to design. IBM og nVidia vil sikkert komme opp med noe bra der, men de helt store vyene har jeg ikke sett. Mer integrering av det samme gamle.

Det kan du godt mene, men påstanden om at IBM bare har brydd seg om throughput er positivt feil.
Nja, jeg mente å referere til nye ISA. Ser at den er litt for uspesifikk. Det som har kommet etter IA64 er stort sett ISA for throughput/watt optimalisering. Power er definitivt optimalisert for thread strength, men det er og blir et serielt ISA. Be explicit about your dependencies som vi sier innen mikrotjenester, det tror jeg i høyeste grad burde vært fokuset inne ISA design også. Ikke mellom metoder men mellom instruksjoner. Det er tross alt modellert som en DAG i kompilator og denne informasjonen forsvinner før den så blir gjenoppdaget i CPU til svært høy kost i både forsinkelse og effektforbruk.
Lenke til kommentar

Jeg begriper ikke dette FPGA hysteriet. Tror det er mer en reaksjon på at industrien vet at x86 ikke holder lengre, samtidig som man er redd for å designe noe nytt pga Itanium fiaskoen. Det vi trenger er et åpent CPU design som åpner for hybrid løsninger der noen kjerner er raske (responstid optimalisert) mens andre er effektive (throughput optimalisert). Alle nye design etter IA64 har fokusert på kun sistnevnte, og mange er lukkede design. Det holder ikke. Antagelig vil google, facebook, amazon eller noen tilsvarende fra asia ta grep og disrupte hele hardware bransjen innen 5 år, for Intel og IBM feiler totalt og RISC-V er ikke helt konge det heller, om enn godt.

 

RISK har ikke mange fordeler over x86 lenger, risk hadde fordeler for 20 år siden når du hadde noen millioner transistorer på chipen og 100K for legacy was dyrt, når du har milliarder og 90% brukes til cache, prefretch og andre optimalisering funksjoner som er identisk for alle vanlige cpu design er saken andelenes. det kan faktisk være en fordel å ha en god del funksjonalitet hardkodet om det sparer tid.

 

Først mac så PS4 og One gikk for x86 og droppet powerpc. Så x86 eier alt mellom nettbrett og super systemer.

Arm er energieffektive og fokuserte på det ignorerte området så de tok det mobile markedet. Et slik design kunne være en fordel om du ønsker veldig mange kjerner imidlertid vil disse begrenses av IO for generelle CPU og en GPU design er bedre.

Lenke til kommentar

Dette vil kunne åpne for hw-akselerasjon og custom instruksjonssett...

Nettop og markedet er til en stor grad rutere som skal behandle et høyt antall pakker i sekundet og sende vide, 

PGA lar deg gjøre mye av dette i hardware. Sug ut header, stapp resten av data i en stack, finne adresse og sende videre. 

En vanlig CPU hadde fått problemer med flere 10 Gb/s men et PGA er designet for dette, kan også skreddersys 

Lenke til kommentar

Det som har kommet etter IA64 er stort sett ISA for throughput/watt optimalisering. Power er definitivt optimalisert for thread strength, men det er og blir et serielt ISA. Be explicit about your dependencies som vi sier innen mikrotjenester, det tror jeg i høyeste grad burde vært fokuset inne ISA design også. Ikke mellom metoder men mellom instruksjoner. Det er tross alt modellert som en DAG i kompilator og denne informasjonen forsvinner før den så blir gjenoppdaget i CPU til svært høy kost i både forsinkelse og effektforbruk.

 

 

Jeg tolker deg som at du mener IA64 var spesielt optimal for thread strength. Men konkurrentene på den tiden hadde minst like bra resultater på single thread integerytelse.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...