Gå til innhold

Grafikkortet som proft lydkort?


Anbefalte innlegg

En av grunnene til at det kommer opp nå er vel PCIe. AGP er vel praktisk halv duplex siden GPU->CPU delen av drivere har aldri blitt prioritert. Jeg leste en artikkel om dette for en stund siden, og dette var en av de tingene som kom opp.

 

(Hvor blir det av MPEG4 encoding i HW som GF6 skulle komme med?)

Lenke til kommentar
Videoannonse
Annonse

Jeg tror denne posten var ment å havne i denne tråden. Forfatter er Tor Dokken, den ansvarlige for det nevnte prosjektet hos SINTEF.

 

Ved SINTEF IKT, avdeling for anvendt matematikk, startet 1.1.2004 et forskningsprosjekt støttet av Norges forskningsråd rettet mot bruk av grafikkort som regneressurs. De som er interessert i å vite mer om dette prosjektet finner info på:

GPU som regneressurs.

Lenke til kommentar
Så mye feil det er på drivere til grafikk-kort per i dag så ville jeg vært litt skeptisk til om det funker tilfredstillende. Men hva vet vel jeg :whistle:

Feilene du snakker om er vel stort sett visningsfeil, ikke beregningsfeil? Uten at jeg kan så altfor mye om dette, så vil jeg tro at de feilene du ser oppstår på grunn av feil grafikk-programmering, og ikke på grunn av feil i kortets GPU.

 

For å dra parallellen over til CPU-er, så kan man jo ikke si at det er AMD/Intel sin skyld at folk lager programmer som ikke funker, selv om programmene kjøres på prosessorer som de har laget.

Lenke til kommentar

Tja... gpu som cpu, og nå også som lydchip.. Med litt avansert hardware mekking, kanskje det ville la seg gjøre å lage en datamaskin, som bruker 3*6800 nvidia brikker. En til lyd, en til vanlig gpu, og en som cpu eller matte-coprossessor. Kanskje ikke så veldig kompatibel, men teoretisk rå ytelse i forhold til pris.

 

on topic.

Tror et lydkort basert på en eller annen rå grafikkbrikke ville være bedre. Bruker en pc'en mest til lyd, har en vel neppe så fett skjermkort uansett. Dog, litt gøy å se at et dyrt (for meg) skjermkort kan ha fler bruksområder. Lurer på hvordan skjermbildet blir når gpu er opptatt med lydbehandling.

Lenke til kommentar
Oki. Beklager at jeg ikke så signaturen din før nå..

 

Da kan jeg fyre løs allerede nå :) :

* Når tror du vi får se den første GPU-optimaliserte ikke-grafikk-programvaren for vanlige brukere?

* Hvilken type programvare tror du dette kommer til å være?

* Kan du tippe på hvor stor ytelsen blir på denne programvaren i forhold til kjente CPU'er?

Når vi diskuterer dette er det viktig å være oppmerksom på at grensen mellom klassisk Transform and Lighting og GPGPU-bruk av skjermkortet er flytende.

 

For å svare på spørsmålene dine.

 

1) Jeg tror vi vil få se slike programmer allerede i høst. Vanlige brukere er jo et ganske vidt begrep.

 

2) Jeg tror de første typene slike programmer vil være lyd, bilde og filmredigeringsprogrammer. Jeg vil tro at typiske 1. generasjons applikasjoner vil være plugins til Photoshop og liknende programmer. Kort oppsummert vil alle applikasjoner som drar nytte av SSE{2,3} være godt egnet for videre optimalisering på GPUen.

 

Det ville heller ikke forundre meg om denne bruken av grafikkortet dukker opp i spill, til å direkte simulere skyer, bølger etc. Den viktigste bruken av denne teknikken vil nettopp være å kjøre simuleringer (som regel i form av en numerisk løsning til en partiell differensiallikning) på GPUen for deretter å direkte visualisere resultatet.

 

3) Når man diskuterer ytelse må man her skille mellom programytelse og algoritmeytelse. For enkelte algoritmer kan man idag observere økning på rundt 10x mot en klassisk CPU implementasjon. Dersom CPU implementasjonen bruker SSE er det mindre å hente.

 

Dette gjelder et typisk high-end kort (GeForce 6800, Radeon X800) mot tilsvarende high-end CPU'er (3++GhZ).

Lenke til kommentar
Veldig god løsning...f.eks 1 pipeline bruker til lydkort, 12 pipelines til grafikk, resten til I/O porter, og nettverskort...en meget bra løsning  :dribble:

Dette vil nok dessverre ikke fungere. En GPU er designet slik at den kjørere samme program (shader) på forskjellige data i alle pipene.

Lenke til kommentar
Kan man ikke heller bare lage en GPU på lydkortet?

Eller ha noen feite DA/AD-konvertere og lyd-tilkoblinger på skjermkortet?

Mange skjermkort er jo allerede dobbeltdekkere så man kan sikkert ta i bruk portene i begge "etasjene" av skjermkortet for å få plass nok til alle tilkoblingene.

 

Evt. bare føye til en digital lydtilkobling og la forsterkeren ta seg av DA og AD.

 

Ville jo kostet flesk med 2 stk "skjermkort" i PC'n selv om bare det ene blir brukt til skjermutgang.

Lenke til kommentar

Ser at de råeste ytelsesforbedringene det er snakk om er å hente på de råeste grafikkortene, selvfølgelig. Men er det noen nedre grense til når det vil virke? Krav til teknologien? Spesielle produsenter (nVidia, ATi)? Når slutter det evt å være noen vits?

 

For å ta et konkret eksempel: jeg sitter med et gammelt nVidia GeForce2 MX-200, fordi jeg så langt ikke har trengt mer. Det har vel noen form for T&L såvidt jeg husker. Vil dette være brukbart? Er det eventuelt en for tidlig generasjon til å ha utviklet denne effektiviteten vi snakker om, til å gi noe særlig puff til CPU'en min, en Athlon XP 2000+?

Lenke til kommentar
Ser at de råeste ytelsesforbedringene det er snakk om er å hente på de råeste grafikkortene, selvfølgelig. Men er det noen nedre grense til når det vil virke? Krav til teknologien? Spesielle produsenter (nVidia, ATi)? Når slutter det evt å være noen vits?

 

For å ta et konkret eksempel: jeg sitter med et gammelt nVidia GeForce2 MX-200, fordi jeg så langt ikke har trengt mer. Det har vel noen form for T&L såvidt jeg husker. Vil dette være brukbart? Er det eventuelt en for tidlig generasjon til å ha utviklet denne effektiviteten vi snakker om, til å gi noe særlig puff til CPU'en min, en Athlon XP 2000+?

Alle Geforce-kort inkludert 2MX-serien støtter T&L (en del av DirectX 7-standarden). Det var dette som gjorde at Nvidia fikk et godt overtak over Kyro2, Rage Pro, Rage 128, sin egen TNT2 og de andre kunkurrerende brikkene.

 

Men jeg har alt for få holdepunkter til å si noe om ytelsen på det i forhold til Athlon XP 2000+. Hvis programmet kan bruke GPU'en til å avlaste CPU'en med en del arbeid så kan det sikkert gi en ytelseøkning i enkelte tilfeller. Men som sagt: Det er ennå alt for mange ukjente faktorer her til å kunen gi noe estimat på hva du kan forvente og hvilke programmer som kan ta nytte av hvilke skjermkort osv.

 

Jeg synes å huske at MX-200 har en minnebåndbredde på 2,7GB/s, 2 pipeliner og en klokkefrekvens på 175MHz. Sammenlign det med dagens toppmodeller med 16 pipeliner på nærmere 500MHz og 32GB/s minnebåndbredde så ser du at ytelsen er en drøy tierpotens under dagens kort. Sammenlign det med at ytelsen kan øke med rundt regnet en tiperpotens i forhold til P4 3GHz++. Så kan gi et veldig grovt anslag og si at ytelsen på CPU og skjermkortet ditt er ganske like. (+/- ca en 2'erpotens). Det bør derfor kunne gi en merkbar avlastning av CPU'en i spesialskrevne programmer.

 

Ikke at jeg tror det kommer til å florere med slike programmer, men noen få litt spesielle programmer dukker nok opp.

Lenke til kommentar

Takker, Simen1!

 

Forresten kan man jo lure på hvorfor ikke skjermkortprodusentene selv ser markedet her, og med noen forandringer på skjermkortene og driverne kan lansere CPU-avlastning/booster-kort som knuser alle andre løsninger innenfor prisnivået... Er de for spesifikt oppbygde?

Lenke til kommentar
Takker, Simen1!

 

Forresten kan man jo lure på hvorfor ikke skjermkortprodusentene selv ser markedet her, og med noen forandringer på skjermkortene og driverne kan lansere CPU-avlastning/booster-kort som knuser alle andre løsninger innenfor prisnivået... Er de for spesifikt oppbygde?

Skjermkortprodusentene vet utmerket godt hvilket potensiellt marked som er der, og bidrar til utviklingen av teknologien. Nvidia bidro f.eks. på et seminar i forbindelse med Siggraph 2004, og de har ansatt flere personer som har forsket på GPGPU teknikker.

 

Det som er svært viktig å ha klart for seg er at det kun er enkelte typer algoritmer som er velegnet for beregning på GPU'en; nemlig de beregningene hvor mye data skal prosesseres på samme måte.

Det er derfor man har opptil 16 pipelines på et skjermkort idag, mens en moderne CPU bare har noen få.

Lenke til kommentar
Er de for spesifikt oppbygde?

Nei, jeg tror ikke det. Når man kan velge mellom enten ekstrem ytelse i spesielle oppgaver eller ok ytelse i generelle oppgaver så må det bli en avveining av hva som er viktigst. Hvis vi kan bruke begge deler så får vi jo både i pose og sekk.

 

Jeg tror det handler mer om at grafikkkortprodusentene ikke har tenkt så mye på hva annet skjermkortet kan brukes til. I hvertfall ikke nok til å gjøre noen tiltak. (Edit: Jeg ser i posten over at de har det, men de har kanskje satset litt for svakt ennå?) Hvis de f.eks hadde laget et mer generellt programmeringsverktøy og promotert utviklingsverktøy for aksellerasjon av enkelt paralelliserbare oppgaver så ville det nok dukket opp programmer litt kjappere.

Endret av Simen1
Lenke til kommentar

Lurer på hvilke lydkort i hundretusenkronersklassen de snakker om. Vet ikke om et eneste lydkort som kun gjør DSP som koster noe i nærheten av dette. Protools og andre high end lydsystemer koster jo såpass men det er ikke for DSPen du betaler da. Det er for påliteligheten og kvaliteten på eventuelle plugins du kjører.

 

Det finnes masse DSP-i-en-boks eller PCIkort løsninger for under ti lapper produsert av aktører som har laget plugs i årevis. Og det er å lage gode plugs som er vanskelig. Ikke å skaffe muskelkraften som trengs.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...