Gå til innhold

Bygde «superdatamaskin» av 750 Raspberry Pi-enheter


Anbefalte innlegg

Videoannonse
Annonse

Genialt med tanke på testing av skalerbarhet, men vil tro det er en del fallgruver også som ikke går an å teste, som f.eks. interconnect speed sin påvirkning på ytelsen og cache tuning av algorithmer. Det er nok kun på det reelle systemet man får testet det ut. Men det har nok helt klart en plass i stacken til utviklere på superdatamaskiner.

Lenke til kommentar

Ser ikke helt poenget med å teste skalerbarhet på denne siden maskinvaren er veldig forskjellig. Dvs. skalerbarheten på RPi kan være noe helt annet enn på en ekte superdatamaskin.

 

Rpi bruker riktignok lite energi, men den yter også elendig. Ytelse/watt blir mye bedre med andre arkitekturer.

Lenke til kommentar

Ser ikke helt poenget med å teste skalerbarhet på denne siden maskinvaren er veldig forskjellig. Dvs. skalerbarheten på RPi kan være noe helt annet enn på en ekte superdatamaskin.

 

 

Dette er jo åpenbart ikke en "ekte" superdatamaskin med tanke på ytelse, men arkitekturen som kjennetegnes av et stort antall noder, hver med et antall cpu'er igjen med et antall cores, er tilstede, så her har man full mulighet til å eksperimentere med skalerbarhet og lastdistribusjon til en brøkdel av prisen. Det har nok en nytteverdi på samme måte som man har nytte av å f.eks. kjøre nedskalerte skipsmodeller i bølgebasseng eller fly/bil-modeller i vindtunnel. Slike eksperimenter blir mer og mer erstattet av datasimuleringer, så spørsmålet er kanskje hvorfor dette er en bedre vei å gå istedenfor å utvikle og eksperimentere på virtuelle superdatamaskiner?

  • Liker 3
Lenke til kommentar
Gjest Slettet+5132

Til skalering kunne en satt en kunstig flaskehals på overføringshastigheten for å lage en grov modell av et raskere system, dog du kan få til lignende via si virtuelle maskiner på moderne PCer.

 

Ville nå kanskje påstå at dette er mer for folk som vil leke seg ting som fault tolerance for noder (dette skjer i praksis på de store regneklyngene) og teste dette ut, men også her kan man vel få til løsninger med virtuelle maskiner.

 

Hadde nok personlig foretrukket å lage et regnecluster av litt raskere maskiner. Tror det blir billigere og mer energieffektivt per flops, men klarer ikke å finne noen konkrete ytelsestall for RPi3 Compute?

 

Det er dog vanvittig dyrt for ytelsen: 150 USD per node i følge nettsiden*. Det vil si at det hele koster rundt 150 000 USD, altså over en million norske kroner! 

 

http://cluster.bitscope.com/

 

 Build a 1000 node cluster in 42U for less than $150/node.

Lenke til kommentar

Til skalering kunne en satt en kunstig flaskehals på overføringshastigheten for å lage en grov modell av et raskere system, dog du kan få til lignende via si virtuelle maskiner på moderne PCer.

 

Ville nå kanskje påstå at dette er mer for folk som vil leke seg ting som fault tolerance for noder (dette skjer i praksis på de store regneklyngene) og teste dette ut, men også her kan man vel få til løsninger med virtuelle maskiner.

 

Hadde nok personlig foretrukket å lage et regnecluster av litt raskere maskiner. Tror det blir billigere og mer energieffektivt per flops, men klarer ikke å finne noen konkrete ytelsestall for RPi3 Compute?

 

Det er dog vanvittig dyrt for ytelsen: 150 USD per node i følge nettsiden*. Det vil si at det hele koster rundt 150 000 USD, altså over en million norske kroner! 

 

http://cluster.bitscope.com/

 

 Build a 1000 node cluster in 42U for less than $150/node.

 

Dyrt i forhold til hva? En storskala supercomputer? 1 enkelt RPI? Din laptop?

 

I mine øyne er prisen på over en mill rimelig, fordi sålenge de har bestemt seg for en fysisk superdatamaskin så er nok dette noe av det aller rimeligste alternativet.

 

Så får heller fagfolk vurdere om testing i virtuelle supercomputere kunne fungert minst like godt. Om det er tilfelle så ja da har de brukt over en mill veldig lite gjennomtenkt.

Lenke til kommentar
Gjest Slettet+5132

Dyrt i forhold til hva? En storskala supercomputer? 1 enkelt RPI? Din laptop?

 

I mine øyne er prisen på over en mill rimelig, fordi sålenge de har bestemt seg for en fysisk superdatamaskin så er nok dette noe av det aller rimeligste alternativet.

 

Så får heller fagfolk vurdere om testing i virtuelle supercomputere kunne fungert minst like godt. Om det er tilfelle så ja da har de brukt over en mill veldig lite gjennomtenkt.

 

Man estimerer at ytelsen til en RPi3 er rundt 0.65 Gigaflops (https://www.raspberrypi.org/forums/viewtopic.php?t=169636 og https://en.wikipedia.org/wiki/Raspberry_Pi). Det vil si at 1000 RPi3 kan totalt oppnå,  i absolutt beste fall, rundt 650 Gigaflops. Til sammenlikning kan jeg kjøpe en enkelt Intel CPU til rundt 20000 kr med omtrent dobbel ytelse, setter jeg sammer flere litt dårligere oppnår jeg lett samme ytelsestall til en rimeligere penge.

 

Når det gjelder GPU-ytelse, er den på rundt 30 Gflops per enhet (sjekk wikipedia ovenfor), 1000 tilsvarer da i beste fall 30 Tflops, altså rundt 3 stykk 1080 Ti, også betydelig billigere enn 1 million.

Endret av Slettet+5132
Lenke til kommentar

 

Ser ikke helt poenget med å teste skalerbarhet på denne siden maskinvaren er veldig forskjellig. Dvs. skalerbarheten på RPi kan være noe helt annet enn på en ekte superdatamaskin.

 

 

Dette er jo åpenbart ikke en "ekte" superdatamaskin med tanke på ytelse, men arkitekturen som kjennetegnes av et stort antall noder, hver med et antall cpu'er igjen med et antall cores, er tilstede, så her har man full mulighet til å eksperimentere med skalerbarhet og lastdistribusjon til en brøkdel av prisen. Det har nok en nytteverdi på samme måte som man har nytte av å f.eks. kjøre nedskalerte skipsmodeller i bølgebasseng eller fly/bil-modeller i vindtunnel. Slike eksperimenter blir mer og mer erstattet av datasimuleringer, så spørsmålet er kanskje hvorfor dette er en bedre vei å gå istedenfor å utvikle og eksperimentere på virtuelle superdatamaskiner?

Kan godt like å leke med tanken om virtuell superdatamaskin.

Moroklumpen i meg er frista til å si; Må nok ha en pokkers til PC til å kjøre en virtuell maskin i Win10, som kan kjøre en virtuell supermaskin. XD

Lenke til kommentar

 

Kan godt like å leke med tanken om virtuell superdatamaskin.

Moroklumpen i meg er frista til å si; Må nok ha en pokkers til PC til å kjøre en virtuell maskin i Win10, som kan kjøre en virtuell supermaskin. XD

 

 

 

Litt krutt må man uansett ha når man driver med virtualisering, det er sant. Og med win10 i bånn blir det ganske lol, det er også sant ...

Lenke til kommentar

 

Ser ikke helt poenget med å teste skalerbarhet på denne siden maskinvaren er veldig forskjellig. Dvs. skalerbarheten på RPi kan være noe helt annet enn på en ekte superdatamaskin.

Dette er jo åpenbart ikke en "ekte" superdatamaskin med tanke på ytelse, men arkitekturen som kjennetegnes av et stort antall noder, hver med et antall cpu'er igjen med et antall cores, er tilstede, så her har man full mulighet til å eksperimentere med skalerbarhet og lastdistribusjon til en brøkdel av prisen. Det har nok en nytteverdi på samme måte som man har nytte av å f.eks. kjøre nedskalerte skipsmodeller i bølgebasseng eller fly/bil-modeller i vindtunnel. Slike eksperimenter blir mer og mer erstattet av datasimuleringer, så spørsmålet er kanskje hvorfor dette er en bedre vei å gå istedenfor å utvikle og eksperimentere på virtuelle superdatamaskiner?

 

Dette er ikke noen nedskalering, dette er som å teste medisiner for mennesker på tomater og konkludere med at de fungerer på mennesker. Raspberry pi har en helt annen arkitektur enn superdatamaskiner, altså ikke en nedskalert superdatamaskin. Skalerbarhetstester man kjører på Rpi vil neppe være overførbar til superdatamaskiner.

Lenke til kommentar
Gjest Slettet+5132

 

 

Ser ikke helt poenget med å teste skalerbarhet på denne siden maskinvaren er veldig forskjellig. Dvs. skalerbarheten på RPi kan være noe helt annet enn på en ekte superdatamaskin.

Dette er jo åpenbart ikke en "ekte" superdatamaskin med tanke på ytelse, men arkitekturen som kjennetegnes av et stort antall noder, hver med et antall cpu'er igjen med et antall cores, er tilstede, så her har man full mulighet til å eksperimentere med skalerbarhet og lastdistribusjon til en brøkdel av prisen. Det har nok en nytteverdi på samme måte som man har nytte av å f.eks. kjøre nedskalerte skipsmodeller i bølgebasseng eller fly/bil-modeller i vindtunnel. Slike eksperimenter blir mer og mer erstattet av datasimuleringer, så spørsmålet er kanskje hvorfor dette er en bedre vei å gå istedenfor å utvikle og eksperimentere på virtuelle superdatamaskiner?

 

Dette er ikke noen nedskalering, dette er som å teste medisiner for mennesker på tomater og konkludere med at de fungerer på mennesker. Raspberry pi har en helt annen arkitektur enn superdatamaskiner, altså ikke en nedskalert superdatamaskin. Skalerbarhetstester man kjører på Rpi vil neppe være overførbar til superdatamaskiner.

 

Nå er en superdatamaskin, eller regneklynge som man kaller det på pent norsk, kun en sammensetning av raske PCer med en rask interconnect imellom -- ganske likt denne regneklynga foruten arkitekturen for CPU og generell hastighet. GPGPU-arkitekturen er nok ikke så forskjellig som det du vil ha det til for eksempel.

 

Gitt at forholdet mellom kjøretid og overføringshastighet er lik på superdatamaskinen og RPi-clusteret (noe man kan legge inn kunstige begrensninger på overføring for å få til), kan man for en del tilfeller få en grei indikasjon på svak skalering. Det vil ikke fungere på applikasjoner som skal oppnå exascale med det første, men det finnes et lass av andre programmer som også kjører på slike klynger som er ganske nøytrale hva arkitektur angår.

 

Det er uansett ikke i første omgang skaleringstester dette systemet er bygget for, men heller for nettverksalgoritmer, fillagring og algoritmer for å håndtere at noder går ned under kjøring. Jeg er selv ikke overbevist om dette er beste måte å teste det på, men det er vel dette forskningen skal finne ut av.

 

 

The pilot is the first step in plans to construct a very large model cluster to facilitate research in extreme scale cluster design. The focus is on new network architectures, bootstrap, management and recovery algorithms and primary research in systems and distributed storage software.

 

Leser man videre på sida blir det ganske klart at dette er et testsystem for systemadministratorer for hvordan man skal jobbe med 100 000 til 1 000 000 noder.

Endret av Slettet+5132
Lenke til kommentar

 

 

Ser ikke helt poenget med å teste skalerbarhet på denne siden maskinvaren er veldig forskjellig. Dvs. skalerbarheten på RPi kan være noe helt annet enn på en ekte superdatamaskin.

Dette er jo åpenbart ikke en "ekte" superdatamaskin med tanke på ytelse, men arkitekturen som kjennetegnes av et stort antall noder, hver med et antall cpu'er igjen med et antall cores, er tilstede, så her har man full mulighet til å eksperimentere med skalerbarhet og lastdistribusjon til en brøkdel av prisen. Det har nok en nytteverdi på samme måte som man har nytte av å f.eks. kjøre nedskalerte skipsmodeller i bølgebasseng eller fly/bil-modeller i vindtunnel. Slike eksperimenter blir mer og mer erstattet av datasimuleringer, så spørsmålet er kanskje hvorfor dette er en bedre vei å gå istedenfor å utvikle og eksperimentere på virtuelle superdatamaskiner?

 

Dette er ikke noen nedskalering, dette er som å teste medisiner for mennesker på tomater og konkludere med at de fungerer på mennesker. Raspberry pi har en helt annen arkitektur enn superdatamaskiner, altså ikke en nedskalert superdatamaskin. Skalerbarhetstester man kjører på Rpi vil neppe være overførbar til superdatamaskiner.

 

Du vet dette tydeligvis bedre enn de som jobber med utvikling av algoritmer for superdatamaskiner til daglig.  :) 

 

Selvsagt kan dette sees på som en nedskalert superdatamaskin. Massivt parallelle algoritmer fungerer like godt enten de kjører på 1000 Xeon eller Xeon Phi CPUer eller på 1000 RPi brikker .

 

Tiden som allokeres på superdatamaskinene er utrolig kostbar, og på denne måten kan de teste mange aspekter av algoritmene sine billig før de overfører det til de store jernene.

  • Liker 1
Lenke til kommentar

Dette er ikke noen nedskalering, dette er som å teste medisiner for mennesker på tomater og konkludere med at de fungerer på mennesker. Raspberry pi har en helt annen arkitektur enn superdatamaskiner, altså ikke en nedskalert superdatamaskin. Skalerbarhetstester man kjører på Rpi vil neppe være overførbar til superdatamaskiner.

 

 

 

 

 

Helt enig, det er nok derfor de har satt sammen mange Rpi'er ...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...