Kjetil.. Skrevet 18. november 2008 Del Skrevet 18. november 2008 Det ser ut til at de har glemt datamaskinen min, jeg har jo fått pressa opteronen opp i 2,8 Ghz i medvind. Hvordan kontakter jeg dem sånn at de får lagt meg til på lista? Send en mail Lenke til kommentar
Yavel Skrevet 18. november 2008 Del Skrevet 18. november 2008 tenk hvor mange kull kraftverk vi kunne lagt ned viss vi slutta og bruke disse maskinene Lenke til kommentar
kilik Skrevet 18. november 2008 Del Skrevet 18. november 2008 (endret) Ironisk nok blir mange av de største maskinene brukt til klimaforskning.... Husker forresten jeg ble voldsomt imponert da CGI-maskinen til NTNU ble vist fram for ikke mange år siden. Hele 6 terabyte tapebasert lagring som fylte opp mange kvadratmeter. Det virket uendelig mye. Nå får man 6 TB til rundt 5000 kroner i form av fire harddisker i standardstørrelse. Men 1 Teraflop ytelse og 800 GB RAM er fortsatt rimelig imponerende sammenlignet med dagens PC-er. Endret 18. november 2008 av kilik Lenke til kommentar
tomaslo Skrevet 18. november 2008 Del Skrevet 18. november 2008 (endret) Så hvis du samkjører 14stk HD 4870 X2 har du en maskin som yter flere teraflops enn maskina til Universitetet i Tromsø? Endret 18. november 2008 av tomaslo Lenke til kommentar
WheelMan Skrevet 18. november 2008 Del Skrevet 18. november 2008 Så hvis du samkjører 14stk HD 4870 X2 har du en maskin som yter flere teraflops enn maskina til Universitetet i Tromsø? I teorien, noe sånnt ja Lenke til kommentar
leifeinar Skrevet 18. november 2008 Del Skrevet 18. november 2008 blir nok og se at gpu blir brukt i fremtiden vil jeg tro, cell var jo først noe så "ubrukelig" som en chip i en playstation og nå ër den bare helt rå..... skulle tro at en gpu skulle være fin til og tulle med vær og sånnt Lenke til kommentar
b-real Skrevet 18. november 2008 Del Skrevet 18. november 2008 Skuffende å se at Norge er så elendig representert. "Vi satser på forskning" Lenke til kommentar
kilik Skrevet 18. november 2008 Del Skrevet 18. november 2008 Ja, men de har glemt denne. Rmax på 42,39 Teraflops gjør den til Norges raskeste og hadde holdt til en delt 63.plass. http://www.hardware.no/artikler/superdatam...trondheim/49598 Lenke til kommentar
Gjest Slettet-Pqy3rC Skrevet 18. november 2008 Del Skrevet 18. november 2008 Men 1 Teraflop ytelse og 800 GB RAM er fortsatt rimelig imponerende sammenlignet med dagens PC-er. HD 4870x2 passerer 1 TFLOP. Fra AMD; Believe it or not - the best just got better. For the first time ever, 2.4 teraFLOPS of graphics horse power, 1600 stream processors and 2 GB of GDDR5 memory have been combined to create the fastest and most powerful graphics card available today. Lenke til kommentar
Beej80 Skrevet 18. november 2008 Del Skrevet 18. november 2008 (endret) Hva brukes disse datamaskinene til egentlig? Hei, på http://www.parallab.uib.no/resources/about/ kan du se hva slags hardware det er snakk om. Siden inneholder bl.a. også en del (generell) informasjon om hva slags beregninger som blir kjørt på denne maskinvaren. Selv bruker jeg det til QC (Quantum Chemical) simuleringer for å modellere molekyler, reaksjoner og den slags, i tillegg til MD (Molecular Dynamics) simuleringer til å modellere hvordan systemer når termodynamisk ekvilibrium og hva som driver ulike prosesser. Dette er verktøy vi ofte bruker istedet for eksperimenter, da det gir oss mer detaljerte data. Det er også kostnadseffektivt. Kostnadseffektivt er et litt vanskelig begrep å definere ihht til forskning, da det kommer litt an på hvilke systemer man ser på. Et eksempel kan være simuleringer som går på injeksjon av CO2 i oljereservoarer over et langt tidsperspektiv, f.eks 50 år. Å vente i 50 år for å få data/indikasjoner på trender er ikke akkurat artig. Med clustere kan vi få (brukbare) data etter timer/dager/uker/måneder alt etter som hvor avanserte beregninger vi kjører og hvilke ressurser vi har tilgjengelige. Mesteparten av forskningen som blir gjort på slike maskiner er beregning av data som man rett og slett ikke ville ha hatt mulighet å gjort på kalkulator (selv om det i teorien er mulig) grunnen antallet beregninger som må utføres. I all hovedsak kan vi se på dette som store kalkulatorer, dataene tolkes etterpå av ulike programmer og/eller personer. Håper dette var et lite, dog vagt innblikk. Mvh, Beej80 Endret 18. november 2008 av Beej80 Lenke til kommentar
Programvare Skrevet 18. november 2008 Del Skrevet 18. november 2008 Takk så meget. Det var noen litt avanserte uttrykk, men jeg forstod det grunnleggende. Allikevel kan jeg ikke helt forstå hvorfor det skal være så utrolig ekstremt kraftig. Det nevnes jo mange tusen ganger kraftigere. Og forresten, det må jo være en haug av utstyr som må kjøles? Er det vannkjøling som blir brukt? Lenke til kommentar
kilik Skrevet 18. november 2008 Del Skrevet 18. november 2008 Naturen er faktisk ekstremt komplisert å gjengi med bra nøyaktighet. Leste nylig at det å gjengi en menneskekropp ned til minste detalj digitalt vil kreve så mye lagringsplass at harddiskene man trenger vil nå månen hvis man stabler de etter hverandre. Tenk så på alle de millioner delsystem i kroppen som er avhengige av hverandre og påvirker hverandre samtidig. Et enormt regnestykke med uhorvelig mange ukjente. Vannkjøling er ofte vanlig ja. Flere steder blir overskuddsvarmen sendt videre til å varme opp kontorlokaler etc. Lenke til kommentar
Beej80 Skrevet 19. november 2008 Del Skrevet 19. november 2008 (endret) Takk så meget. Det var noen litt avanserte uttrykk, men jeg forstod det grunnleggende. Allikevel kan jeg ikke helt forstå hvorfor det skal være så utrolig ekstremt kraftig. Det nevnes jo mange tusen ganger kraftigere. Og forresten, det må jo være en haug av utstyr som må kjøles? Er det vannkjøling som blir brukt? Kjøling må du ikke spørre meg om Jeg har bare en brukerkonto og tilgang via shell til systemene slik at jeg får kjørt de aktuelle beregningene jeg trenger. Så jeg har aldri (fysisk) sett maskinene Og sånn er den saken Bare det å modellere enkle systemer krever veldig mye. Sett at jeg skal kjøre en MD simulering over en 1m^3 stor boks som inneholder vann. Da er det ca 55000 * 602.300.000.000.000.000.000.000 (6,023 * 10^23) vannmolekyler i den boksen. Dette gir opphav til 3N-6 ligninger, der N = 55.000 * 6,023*10^23. Da løser vi dette for en gitt konfigurasjon. Så skal vi la dette systemet utvikle seg over tid. Vi opererer ofte med pico og femto sekund. Dette er (1 sekund) / 1.000.000.000.000 (ett pico sekund). For å få et femto sekund kan du legge til 3 nuller til i nevneren. Vi er gjerne interessert i å se hvordan systemet utvikler seg over en tid som tilsvarer f.eks 10ns (nano sekund (1*10^-9 s)). Dersom vi opererer på pico sekundnivået må vi da gjøre 1000 slike beregninger (for å simulere ETT nano-sekund), hver bestående av (3 * (55.000 * 6,023*10^23) - 6) ligninger. Du begynner vel å skjønne at dette kan bli litt komplisert? Og at vi dermed trenger en voldsom regnekraft for å kunne gjøre noe slikt? I realiteten ville jeg ALDRI ha funnet på å prøve og beregne på et så stort system som beskrevet her. Det ville tatt alt for lang tid. Vi konsentrerer oss hovedsaklig om mindre systemer, men bruker mer komplekse ligninger som gjør at det tar lang tid, selv på små (mindre enn 1mm*1mm*1mm) volumer. Mvh, Beej80 Endret 19. november 2008 av Beej80 Lenke til kommentar
rocknrolf77 Skrevet 19. november 2008 Del Skrevet 19. november 2008 Godt å lese at amd er kongen på haugen her og Linux tar enda mer over for unix med sine nå 87.80 % Lenke til kommentar
Fruktkake Skrevet 19. november 2008 Del Skrevet 19. november 2008 Hva brukes disse datamaskinene til egentlig? Hei, på http://www.parallab.uib.no/resources/about/ kan du se hva slags hardware det er snakk om. Siden inneholder bl.a. også en del (generell) informasjon om hva slags beregninger som blir kjørt på denne maskinvaren. Selv bruker jeg det til QC (Quantum Chemical) simuleringer for å modellere molekyler, reaksjoner og den slags, i tillegg til MD (Molecular Dynamics) simuleringer til å modellere hvordan systemer når termodynamisk ekvilibrium og hva som driver ulike prosesser. Dette er verktøy vi ofte bruker istedet for eksperimenter, da det gir oss mer detaljerte data. Det er også kostnadseffektivt. Kostnadseffektivt er et litt vanskelig begrep å definere ihht til forskning, da det kommer litt an på hvilke systemer man ser på. Et eksempel kan være simuleringer som går på injeksjon av CO2 i oljereservoarer over et langt tidsperspektiv, f.eks 50 år. Å vente i 50 år for å få data/indikasjoner på trender er ikke akkurat artig. Med clustere kan vi få (brukbare) data etter timer/dager/uker/måneder alt etter som hvor avanserte beregninger vi kjører og hvilke ressurser vi har tilgjengelige. Mesteparten av forskningen som blir gjort på slike maskiner er beregning av data som man rett og slett ikke ville ha hatt mulighet å gjort på kalkulator (selv om det i teorien er mulig) grunnen antallet beregninger som må utføres. I all hovedsak kan vi se på dette som store kalkulatorer, dataene tolkes etterpå av ulike programmer og/eller personer. Håper dette var et lite, dog vagt innblikk. Mvh, Beej80 Er ikke dette noe av det samme som QMC@Home? Det virker nesten som det er flere folk som gjør akkurat det samme med flere superdatamaskiner. Forresten. Det er vel enda ingen som utnytter 4870X2 med de terafloppene? Det virker som Nvidia har dårligere teorestisk ytelse, men de får mye høyere praktisk på grunn av CUDA per i dag. Lenke til kommentar
Fruktkake Skrevet 19. november 2008 Del Skrevet 19. november 2008 Ironisk nok blir mange av de største maskinene brukt til klimaforskning.... Husker forresten jeg ble voldsomt imponert da CGI-maskinen til NTNU ble vist fram for ikke mange år siden. Hele 6 terabyte tapebasert lagring som fylte opp mange kvadratmeter. Det virket uendelig mye. Nå får man 6 TB til rundt 5000 kroner i form av fire harddisker i standardstørrelse. Men 1 Teraflop ytelse og 800 GB RAM er fortsatt rimelig imponerende sammenlignet med dagens PC-er. Hvor mange MW bruker en superdatamaskin? Udokumentert påstand: Når man bygger en superdatamaskin er en vindmølle på 1-6 (?) MW en billig investering for å til tider avsette energiforbruket til superdatamaskinen. Lenke til kommentar
kilik Skrevet 19. november 2008 Del Skrevet 19. november 2008 (endret) Ser man på de 20-30 raskeste på listen bruker de ca. 1 MW i snitt. Den raskeste, Roadrunner, bruker 2,4 MW. Roadrunner har forresten en totalkostnad på $133 millioner dollar, nærmere 1 milliard kroner. Men så er den også ca. 200 ganger raskere enn NTNUs maskin fra 2006. NTNU skal skifte ut sin maskin i 2010 og den ventes å være omtrent like kraftig som Roadrunner (1 Petaflop), men til en brøkdel av prisen og halvparten av strømforbruket. Endret 19. november 2008 av kilik Lenke til kommentar
War Skrevet 19. november 2008 Del Skrevet 19. november 2008 Hvilket program bruker man for å måle floppen. Eller er det bare teoretisk. Lenke til kommentar
kilik Skrevet 19. november 2008 Del Skrevet 19. november 2008 (endret) Man bruke LINPACK-benchmarken. Den utfører matrise- og vektoroperasjoner (numerisk lineær algebra). Man kan kjøre benchmarken på sin egen PC her. Rekorden er altså over 1,100,000,000 Mflop/s. NTNU's første superdatamaskin i 1987 til rundt 100 millioner kroner i dagens kroneverdi greide rundt 400 Mflop/s. Endret 19. november 2008 av kilik Lenke til kommentar
trenchypost Skrevet 19. november 2008 Del Skrevet 19. november 2008 Så folding at home sparer 52 millioner kr i strøm pr år på at vi dødlige folder.+ at de slipper å kjøpe og vedlikeholde 4 roadrunners. Ikke verst. Du mener farmasi selskapene sparer 52 mill kr i året, fordi et par hundre tusen godtroende tullinger plukker opp regningen istedet`? Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå