josse Skrevet 5. desember 2008 Del Skrevet 5. desember 2008 Går det mot noen standardisering av språk for massivt parallelle maskiner med flere adresserbare minnenivåer eller er det alt for tidlig til at noen har begynt med det enda? Jeg synes de tidlige GPGPU alternativene gjenspeiler et alt for snevert tankesett rund dette fagområdet. Poenget ser ut til å være å få mest mulig ut av en spesifikk serie GPU enklest mulig, men om 2 år så er jo den innsatsen tapt. Og om 5-7 år har vi antagelig ikke GPU lengre. Det er et veldig godt spørsmål du tar opp der. Hovedproblemet er at alle eksisterende programmeringspråk gir en illusjon av et stort kontinuerlig minneområde. Cuda har løst dette ved egne cudaMalloc-funksjoner som allokerer minne på GPU, dette er jo en mulighet som skalerer til enda flere minneområder også. Men programmereren har det hele og fulle ansvar for å holde styr på hvilke pekere som peker til hvilket minne. Men man kunne tenke seg språk som hadde egne nøkkelord og runtime støtte for dette, men det skal mye til for et nytt språk å komme på banen. Når det gjelder levetiden til språk så er det vanskelig å spå. Nvidia sier selv de har et 20-års perspektiv på Cuda, og at vi har noe som likner på GPU om 5 år er jeg helt sikker på. Til spill er det rett og slett så overlegent en vanlig CPU (både i absolutt ytelse, og i ytelse/watt) at maskiner vil fortsette å ha dem. Lenke til kommentar
DeadManWalking Skrevet 5. desember 2008 Del Skrevet 5. desember 2008 (endret) Og man slipper å holde styr på alle de 12288 trådene et 8-serie kort kan jobbe med samtidig. Er personlig, litt mer interessert i RapidMind's løsning(pga cell-arkitekturen). Det blir et paradigmeskifte og det er der problemet ligger, det er for mange løsninger på parallell prosessering. Datasettet er viktigere enn algoritmen. Hver av de løsningene krever stålkontroll på dataene som skal prosesseres, derfor er det ikke bare å bare å hoppe mellom de forskjellige alternativene. Endret 5. desember 2008 av data_jepp Lenke til kommentar
Fruktkake Skrevet 5. desember 2008 Del Skrevet 5. desember 2008 Haha, dette var noen kule bilder gitt. Smålo litt. Lenke til kommentar
aeinstein Skrevet 5. desember 2008 Del Skrevet 5. desember 2008 Jeg kommmer! Men er litt usikker på kleskoden. Det pleier å være minimum dressjakke. Kanskje en skjorte holder Lenke til kommentar
ti-guru Skrevet 5. desember 2008 Del Skrevet 5. desember 2008 Tro'kke du skal stresse med dresskoden. Paa de disputasene jeg har vaert paa er det som regel veileder+opponenter som kler seg pent. Resten av den gemene hop fra labben kommer i det de har paa seg den dagen (som regel er det "oi, var det i dag han/hun skulle disputere"). Lenke til kommentar
Tordenflesk Skrevet 6. desember 2008 Del Skrevet 6. desember 2008 Ville heller brukt GPUen til protein-folding enn å forske på runde kanter. Lenke til kommentar
RolloThomasi Skrevet 6. desember 2008 Del Skrevet 6. desember 2008 Ville heller brukt GPUen til protein-folding enn å forske på runde kanter. Det var nå et rimelig tankeløst innlegg. Ser på signaturen din at du er svært så stolt av å donere prosessortid til et slikt allmenntjenlig formål, men du innser vel at man ikke får en doktorgrad i informatikk ved å la en spillmaskin stå i et hjørne og dure folding@home døgnet rundt? Lenke til kommentar
tawg Skrevet 7. desember 2008 Del Skrevet 7. desember 2008 jeg ville heller brukt GPUen til å bruteforce WPA2 nøkkler. Lenke til kommentar
DeadManWalking Skrevet 7. desember 2008 Del Skrevet 7. desember 2008 jeg ville heller brukt GPUen til å bruteforce WPA2 nøkkler. Det finnes programvare for nettopp det, gammelt nytt. Lenke til kommentar
toralfen Skrevet 8. desember 2008 Del Skrevet 8. desember 2008 Og nå kan vi snakke med Dr. Johan Simon Seland som har bestått sitt disputas i dag. Og vi gratulerer meget! Lenke til kommentar
T-Bear91 Skrevet 8. desember 2008 Del Skrevet 8. desember 2008 i need 9800 GX2 / GTX 280 SLI!!! :--D Lenke til kommentar
toralfen Skrevet 8. desember 2008 Del Skrevet 8. desember 2008 i need 9800 GX2 / GTX 280 SLI!!! :--D har gx2 er utrulig rått ^^ Lenke til kommentar
DeadManWalking Skrevet 8. desember 2008 Del Skrevet 8. desember 2008 Det tøffeste her, nå. Som jeg bare må påpeke. Er jo at han kan ha Dr. foran navnet sitt i telefonkatalogen. Det kan ikke en lege. Så sant ikke legen har tatt en doktorgrad i noe. Hahahahahhaa. Lenke til kommentar
Del Skrevet 9. desember 2008 Del Skrevet 9. desember 2008 Men man kunne tenke seg språk som hadde egne nøkkelord og runtime støtte for dette, men det skal mye til for et nytt språk å komme på banen. Når det gjelder levetiden til språk så er det vanskelig å spå. Nvidia sier selv de har et 20-års perspektiv på Cuda, og at vi har noe som likner på GPU om 5 år er jeg helt sikker på. Til spill er det rett og slett så overlegent en vanlig CPU (både i absolutt ytelse, og i ytelse/watt) at maskiner vil fortsette å ha dem. Personlig har jeg store problemer med at Cuda er kun for nvidia. Har du gjort deg noen tanker om OpenCL? ref. http://www.khronos.org/opencl/ Gratulerer med graden! Hvis avhandlingen din er tilgjengelig på nett hadde det vært flott med en lenke. Lenke til kommentar
josse Skrevet 19. desember 2008 Del Skrevet 19. desember 2008 Personlig har jeg store problemer med at Cuda er kun for nvidia. Har du gjort deg noen tanker om OpenCL? ref. http://www.khronos.org/opencl/ Gratulerer med graden! Hvis avhandlingen din er tilgjengelig på nett hadde det vært flott med en lenke. Avhandlingen ligger her. Når det gjelder OpenCL har jeg svært stor tro på det. Ut i fra manualen er det veldig likt CUDA, hvis både AMD/ATI og Nvidia får ut fungerende SDKer i løpet av våren 2009 tror jeg vi har en vinner. Likevel skal man ikke se helt bort i fra at de platformspesifikke språkene vil overleve. GPUer er stadig mer interessant i embedded markedet, og der tar man gjerne et platformspesifikt språk for å få ut de siste 10% med ytelse. Lenke til kommentar
Anders Jensen Skrevet 19. desember 2008 Del Skrevet 19. desember 2008 Likevel skal man ikke se helt bort i fra at de platformspesifikke språkene vil overleve. GPUer er stadig mer interessant i embedded markedet, og der tar man gjerne et platformspesifikt språk for å få ut de siste 10% med ytelse. Så komplekse og kresne som GPUer er så er det vel lenge til en generell SDK kan vise til bare 10% dropp i ytelsen? Lenke til kommentar
toralfen Skrevet 27. september 2009 Del Skrevet 27. september 2009 Han var heit. Jeg har et enda heitere bilde av unge Seland og et skjermkort, men publiserer jeg det tør jeg ikke tenkte på hva som skjer med meg. hehe har sett alle di bildan d va ganske tøffe da Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå