Gå til innhold

Grafikkort som regneressurs


Tor Dokken

Anbefalte innlegg

Videoannonse
Annonse
Ved SINTEF IKT, avdeling for anvendt matematikk, startet 1.1.2004 et forskningsprosjekt støttet av Norges forskningsråd rettet mot bruk av grafikkort som regneressurs. De som er interessert i å vite mer om dette prosjektet finner info på:

GPU som regneressurs.

Ser ut som skjermkort kan ha mange bruksområder :)

 

http://www.hardware.no/art.php?artikkelid=9897

 

A standard PC with such a graphics card can thus have much higher performance for certain classes of non-graphics-related computations. Exact numbers for performance are difficult to estimate, but there are indications of at least 15-fold performance increases for tailored applications.

 

Dette virker jo interessant. Jeg har aldri tenkt på at GPU'ene var så ekstremt effektive. Hvilke bruksområder er det man forsker på i Sintef da?

Endret av Carnifex
Lenke til kommentar

Jeg har hørt at de allerede nå i startfasen av prosjektet har programmert "shadere" som løser diffligninger.

 

Edit: Jeg fant en link til noen som løser navier-stokes (diffligning som brukes til reologi, fluidmekanikk, aerodynamikk etc) via GPU shadere.

 

Jeg tror foresten denne tråden er ment som en oppfølging til denne tråden:

Grafikkortet som proft lydkort?

Endret av Simen1
Lenke til kommentar
Jeg tror foresten denne tråden er ment som en oppfølging til denne tråden:

Grafikkortet som proft lydkort?

Ja.. det var det jeg også tenkte, men ikke før posten var skrevet. :p Men jeg må si at det overrasket meg hvor effektiv en GPU kan være i fohold til dagens CPU'er.

 

Det kan jo bli spennende å se hva som kommer ut av denne forskningen.

Endret av Carnifex
Lenke til kommentar
Ja.. det var det jeg også tenkte, men ikke før posten var skrevet. :p Men jeg må si at det overrasket meg hvor effektiv en GPU kan være i fohold til dagens CPU'er.

Dedikert hardware, spessielt mikroelektronikk (eventuelt nano om du vil), har alltid vært mye kjappere enn generelle kretser. Hovedgrunnen er at en CPU (som er generell) må ta høyde for mye rart og ikke minst dekode en instruksjon og utføre den(/de). En dedikert brikke kan derimot anta at det man får inn er 'riktig' og utføre den operasjonen man skal uten tester ol.

Lenke til kommentar

Er det noen som vet hvilke grafikkort dette vil kunne brukes på? Noen nedre grense? Krav til teknologien? Spesielle produsenter (nVidia, ATi?)

 

For å ta et konkret eksempel: jeg sitter med et gammelt nVidia GeForce2 MX-200. Det har vel noen form for T&L såvidt jeg husker. Vil dette være brukbart? Er det eventuelt en for tidlig generasjon til å ha utviklet denne effektiviteten vi snakker om, til å gi noe særlig puff til CPU'en min, en Athlon XP 2000+?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...