Simen1 Skrevet 28. desember 2003 Del Skrevet 28. desember 2003 teit å sammenligne cpu og gpu slik. Gpu er jo spesialisert for noe helt annet..Kanskje nvidia skal lage cpuer istedet da., haha Nei, det er nok mye en gpu mangler før du kan sammenligne med en ren tallknuser,, kan ikke bare se på antall transistorer.. Gpu kommer opp i 3ghz, liten kjøleløsning? Hva i all verden skal man med en GPU på 3GHz ?? Det som teller for GPU-ytelse er antall pipelines * antall regneenheter per pipeline * MHz. Altså er det bare å paralellisere ennå flere oppgaver for å øke ytelsen på den. Det er jo derfor en 500MHz GPU lett kan banke en Pentium4 3GHz ned i møkka på bestemte oppgaver. En GPU trenger ingenting ekstra for å kunne regnes som en tallknuser.. Det er jo nettopp tallknuser den er. (Kan sammenlignes med FPU'en på en CPU, bare at den er mye mer parallellisert) Lenke til kommentar
Tor Dokken Skrevet 6. september 2004 Del Skrevet 6. september 2004 Ved SINTEF IKT, avdeling for anvendt matematikk, startet 1.1.2004 et forskningsprosjekt støttet av Norges forskningsråd rettet mot bruk av grafikkort som regneressurs. De som er interessert i å vite mer om dette prosjektet finner info på: GPU som regneressurs. Lenke til kommentar
Jarmo Skrevet 6. september 2004 Del Skrevet 6. september 2004 Ved SINTEF IKT, avdeling for anvendt matematikk, startet 1.1.2004 et forskningsprosjekt støttet av Norges forskningsråd rettet mot bruk av grafikkort som regneressurs. De som er interessert i å vite mer om dette prosjektet finner info på:GPU som regneressurs. Siden kan ikke vises Siden du ser etter, er for øyeblikket ikke tilgjengelig. Web-området kan ha tekniske problemer, eller det kan være at du må justere leserinnstillingene. Lenke til kommentar
HKS Skrevet 6. september 2004 Del Skrevet 6. september 2004 Har et roadmap foran meg her, og der er P5 Tejas, med 2MB L2 Cache, og 1200 MHz FSB. Nehalem (P6) er på 65nm, og har noe som kalles "LaGrande security technology". Hadde du fulgt med hadde du funnet ut at Intel har kanselert Tejas... :!: Prescot får 2Mb L2 cache på nyåret, og 1066Mhz FSB Intel sliter nok allerede med å skalere Prescot over 3,6Ghz (vet ikke om du klarer å oppdrive så mange 3,6Ghz) som de har nå... Dette har lite med at Intel har problemer med 90nm prosessen, men mer med at Intel sliter med arkitekturen i Prescot... 115W @ 3,6Ghz = Presc(h)ot Lenke til kommentar
Citizenx Skrevet 6. september 2004 Del Skrevet 6. september 2004 Raptor' date='06/09/2004 : 21:31'] Har et roadmap foran meg her, og der er P5 Tejas, med 2MB L2 Cache, og 1200 MHz FSB. Nehalem (P6) er på 65nm, og har noe som kalles "LaGrande security technology". Hadde du fulgt med hadde du funnet ut at Intel har kanselert Tejas... :!: Veit ikke om du har lagt merke til det, men tråden er over 9måneder gammel. Ting kan ha forandret seg. Lenke til kommentar
HAL9000 Skrevet 6. september 2004 Del Skrevet 6. september 2004 Innholdet i denne artikkelen er ikke juks og fanteri. Et eksempel som demonstrerer dette er muligheten for å flytte store renderfarms som filmsselskapene idag bruker over på GPU baserte plattformer. Det var en professer på Siggraph konferansen for noen år tilbake som demonstrerte hvordan man kunne ta en tilfeldig Renderman shader og konvertere denne til OpenGL kall og dermed hardware akselerere koden på en GPU. Dette betyr at det man idag har dedikerte renderfarms med hundrevis av maskiner til kan man erstatte med en boks som inneholder noen få dedikerte GPU'er. John Carmack i id software har snakket om dette lenge og han antyder at filmselskaper i umiddelbar fremtid vil begynne å rendre sine spesialeffekter på GPU baserte bokser som koster fra 10 000 $ istedet for å bruke store renderfarms til millioner av $. Man har foreløpig ikke klarte å ta en generalisert Renderman shader å lage 100% kompatible OpenGL kall med denne, men man er nær nok til å lage filmkvalitet til at dette som utgangspunkt vil bli brukt på filmer og TV programmer uten de aller største budsjettene. Om noen år vil all film og alle spesialeffekter rendres på GPU baserte bokser. Årsaken til at dette lar seg gjøre er selvsagt, som det er blitt påpekt, at en GPU ikke er en generalisert CPU som skal brukes til alt mulig. En GPU utnytter det faktum at man kan parallellisere algoritmer og er egentlig en avansert DSP man man bruke til digital signalbehandling generelt. Det er ikke uten grunn at de gode gamle Cray superdatamaskinene var såkalte vektorbaserte maskiner der man opererte med vektorer og matriser istedet for enkeltstående tall (omtrent slik man idag gjøre med SSE og tilsvarende instruksjonssett). Det finnes / fantes et selskap for en del år tilbake som laget noe de kalte for en Transputer (se f.eks. http://www.classiccmp.org/transputer/) som var spesiallaget for oppgaver som kan parallellisereres. Dagens grafikk GPU'er er egentlig arvtagere til tidligere tiders superdatamaskiner og dedikerte DSP'er og det er ingen overraskelse at de knuser en Pentium på 10 GHz når oppgavene er de rette. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå