int20h Skrevet 20. november 2008 Del Skrevet 20. november 2008 Nvidia og Cray samarbeider om en superdatamaskin for skrivebordet. Les mer Lenke til kommentar
hobgoblin Skrevet 20. november 2008 Del Skrevet 20. november 2008 hmm, så var spørsmålet hva vi vanlige dødelige skal finne på å bruke slikt til Lenke til kommentar
hobgoblin Skrevet 20. november 2008 Del Skrevet 20. november 2008 trodde det var PS3 en hadde for slikt Lenke til kommentar
Arthemax Skrevet 20. november 2008 Del Skrevet 20. november 2008 trodde det var PS3 en hadde for slikt F@H på PS3 kjører ikke på alle kjernene av Cell-prosessoren, i tillegg har den ikke like rå prosesseringskraft som et topp moderne grafikkort. Lenke til kommentar
Locklear Skrevet 20. november 2008 Del Skrevet 20. november 2008 http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats PS3 må se seg grundig knust av GPUer gitt. nVidia leverer flere TFLOPS med 1/4 av det aktive hardwaret Lenke til kommentar
Mato Skrevet 20. november 2008 Del Skrevet 20. november 2008 er dette et skjermkort ? ... i såtifell hvordan spec må resten av datan har for og være i samme klasse O_o Lenke til kommentar
hobgoblin Skrevet 20. november 2008 Del Skrevet 20. november 2008 ikke noe skjermkort nei. men basert på GPU-teknologien til nvidia. altså har ting gått full sirkel, en har videreutviklet muligheten for programmerbare shadere til å kjøre generell kode, og dermed gjort GPU-en om til enda en CPU. ikke noe nytt egentlig, jeg banner på at jeg har lest om tidligere løsninger hvor en hadde CPU og en mengde ram på ett pci kort som en kunne stappe inn for å gjøre ekstra regneoppgaver på. Lenke til kommentar
kilik Skrevet 20. november 2008 Del Skrevet 20. november 2008 AMDs HD 4870 X2-skjermkort skal kunne klare imponerende 2,4 teraflops ifølge AMD, men det er kanskje ikke like programmerbart? Lenke til kommentar
tom waits for alice Skrevet 20. november 2008 Del Skrevet 20. november 2008 (endret) ikke noe nytt egentlig, jeg banner på at jeg har lest om tidligere løsninger hvor en hadde CPU og en mengde ram på ett pci kort som en kunne stappe inn for å gjøre ekstra regneoppgaver på. Jeg var på en messe (husker ikke hvor i verden) en gang sent på 80-tallet hvor skjermkortleverandøren SuperMac viste et tilleggskort for Mac fylt opp med transputere. Mac'ene hadde 6 NuBus slots, og minus en slot til skjermkortet kunne du ha 5 slike transputerkort i maskinen. Hastigheten var vanvittig (etter datidens målestokk) for prosessorintensive oppgaver som ray-tracing. Ulempen var at de måtte programmeres, og attpåtil i Occam, som ingen i verden kunne. Det fantes ingen ferdigutviklet software og de kunne ikke kjøre Mac-programmer eller avlaste Mac'ens egen prosessor. (Hadde produktet blitt en realitet kunne de kanskje sammen med Apple utviklet en driver som gjorde akkurat det, på samme måte som et skjermkort. Men så langt kom de aldri.) Transputerkortet kom aldri på markedet. Atari lanserte en maskin med transputere, men ingen kjøpte den... Geir Endret 20. november 2008 av tom waits for alice Lenke til kommentar
Avean Skrevet 20. november 2008 Del Skrevet 20. november 2008 http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats PS3 må se seg grundig knust av GPUer gitt. nVidia leverer flere TFLOPS med 1/4 av det aktive hardwaret Nå har nå PS3 vært ute på markedet en god stund da, så burde bare mangle. Men PS3 har virkelig fått fortgang på Folding@Home så all respekt til den konsollen. Lenke til kommentar
Prognatus Skrevet 20. november 2008 Del Skrevet 20. november 2008 (endret) Før i tiden var det ikke uvanlig med en egen matematikkprosessor på hovedkortet, i tillegg til hovedprosessoren. Kanskje kommer dette tilbake? Det er i hvertfall en bedre løsning enn å ha matteprosessoren på et PCI-kort. Men på den annen side er det ikke alle som trenger ekstra regnekraft på en PC, så spørsmålet blir da om markedet er stort nok til å lage standard hovedkort med en ekstra prosessor. Jeg tror vi kan få se både PCIe-kort og hovedkort med Tesla-processorer i fremtiden, som er beregnet på vanlige hjemmebrukere. Men det som eventuelt vil få fart i markedet er om Intel og/eller AMD lanserer et brikkesett med en matteprosessor. Begrepet superdatamaskin er forøvrig relativt. Det som er super-dupert i dag er ikke mer enn en litt avansert bordkalkulator om noen år. Endret 20. november 2008 av Prognatus Lenke til kommentar
hobgoblin Skrevet 20. november 2008 Del Skrevet 20. november 2008 (endret) i dag er matteprosessoren (er den som tar seg av flyttall, eller tall med noe etter komma) en del av CPU pakken, heller den egen chip. og folk forventer at GPU vil gå samme vei (AMD driver å truer med det). Endret 20. november 2008 av hobgoblin Lenke til kommentar
GullLars Skrevet 20. november 2008 Del Skrevet 20. november 2008 i dag er matteprosessoren (er den som tar seg av flyttall, eller tall med noe etter komma) en del av CPU pakken, heller den egen chip. og folk forventer at GPU vil gå samme vei (AMD driver å truer med det). ATI/AMD får også GPGPU mulighet med de nye kortene sine nå i desember da. De slipper en driveroppdatering som gir radeon 4000-serien Stream Acceleration, og de skal også gi ut en SDK for dette. Det skal implementeres gjennom open-CL mener jeg på. Da blir jeg sittende med et kort som har 2,4 Terraflops og kan aksellerere visse ting Lenke til kommentar
G Skrevet 20. november 2008 Del Skrevet 20. november 2008 Hvor friske er egentlig de Cell-prosessorene som sitter i folks PS3-konsoller? Tenker da på at flere av dem er avslått, eller noe sånn. Sitter folk med Cell-prosessorer hvor alle kjernene er fungerende men avslått, eller hvor noen av kjernene er fungerende, men de ødelagte kjernene ligger i det område hvor kjernene er slått av? Lenke til kommentar
styx Skrevet 20. november 2008 Del Skrevet 20. november 2008 Jan Aril, kan jeg få foreslå å være litt mer spandabel med hyperlinkene? Jeg hadde satt stor pris på å enkelt kunne finne ut mer om interessepunkter som Tesla C1060, CX1-serien og topp500-listen Lenke til kommentar
anbar Skrevet 20. november 2008 Del Skrevet 20. november 2008 (endret) 1 teraflop ganger 4 tesla prossesorer= maks 4 teraflop... Hvor mye var det 4870 x2 hadde igjen? 2.4 teraflops... altså for å sammenligne disse 2 GPUene burde man gange opp 1.2 x 4 = 4.8 teraflops Til redaksjonen: dårlig gjengivelse av pressemeldingen, misvisende/diffus artikkel særs på informasjon om antall teraflops. Dog bra at primærkilden er linket så man faktisk kan lese det riktig... Nvidia lanserer nå Tesla C1060, som har en ytelse på teraflop, med andre ord ti ganger mer enn en standard x86-maskin med to firekjerneprosessorer. I tillegg påstår Nvidia at effektforbruket ikke er noe høyere. Hvor mange teraflops?? Edit: rettet litt opp i urettferdigheter Endret 20. november 2008 av anbar Lenke til kommentar
kilik Skrevet 20. november 2008 Del Skrevet 20. november 2008 NTNUs nyeste stormaskin til 30 millioner greier 7,2 teraflops. Det er i teorien tre stykk 4870x2 i parallell. Det sier litt om potensialet til GPU-teknologi i HPC. Jeg tror en kombinasjon av generelle CPU-kjerner og mange, kraftige GPU-lignende kjerner er framtiden på dette området. HP har uttalt at stormaskinen kan være utryddet innen 2014. Det tror jeg faktisk er veldig sannsynlig hvis denne utviklingen fortsetter. Lenke til kommentar
trotsche Skrevet 20. november 2008 Del Skrevet 20. november 2008 hmm, så var spørsmålet hva vi vanlige dødelige skal finne på å bruke slikt til På jobben gjør vi mye arbeid i MATLAB som involverer matriseoperasjoner og kan være tidkrevende. Nylig er det lansert et bibliotek som heter GPULib som lett lar deg benytte kort med CUDA i MATLAB, Python + +. Dette kan ha stort potensial til å korte ned regnetiden og eventuelt eliminere behovet for å kjøpe regnetid på superdatamaskiner. Kanskje ikke noe for "vanlig dødelige", men er tross alt en del som kan ha nytte av et slikt kort. Lenke til kommentar
hobgoblin Skrevet 20. november 2008 Del Skrevet 20. november 2008 NTNUs nyeste stormaskin til 30 millioner greier 7,2 teraflops. Det er i teorien tre stykk 4870x2 i parallell. Det sier litt om potensialet til GPU-teknologi i HPC. Jeg tror en kombinasjon av generelle CPU-kjerner og mange, kraftige GPU-lignende kjerner er framtiden på dette området. HP har uttalt at stormaskinen kan være utryddet innen 2014. Det tror jeg faktisk er veldig sannsynlig hvis denne utviklingen fortsetter. tja, kommer vel an på hva HP mener med stormaskiner det. tror dette blir bare enda en komponent i en cluster... Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå