Gå til innhold

ATI med treveis grafikkløsning


Anbefalte innlegg

Til gjengjeld vil PCen ha 1/60 av regnekraften til de tre skjermkortene =) Spesialisert hardware (i skjermkortenes tilfelle, regneoperasjoner) er alltid mer effektivt. Ikke uten grunn at man får dedikerte mpeg2 encodere som trekker 0.5W, mens man må ha en 1Ghz Athlon (ca 50W?) maskin til å encode samme videoen med lavere kvalitet.

 

-Ko_deZ-

Lenke til kommentar
Videoannonse
Annonse
Til gjengjeld vil PCen ha 1/60 av regnekraften til de tre skjermkortene =) Spesialisert hardware (i skjermkortenes tilfelle, regneoperasjoner) er alltid mer effektivt. Ikke uten grunn at man får dedikerte mpeg2 encodere som trekker 0.5W, mens man må ha en 1Ghz Athlon (ca 50W?) maskin til å encode samme videoen med lavere kvalitet.

 

-Ko_deZ-

6272854[/snapback]

Spesialisérte prosessorer vil alltid være på den måten. Men jeg vil likevel tro at en CPU egner seg bedre enn GPU til fysikk.
Lenke til kommentar
Til gjengjeld vil PCen ha 1/60 av regnekraften til de tre skjermkortene =) Spesialisert hardware (i skjermkortenes tilfelle, regneoperasjoner) er alltid mer effektivt. Ikke uten grunn at man får dedikerte mpeg2 encodere som trekker 0.5W, mens man må ha en 1Ghz Athlon (ca 50W?) maskin til å encode samme videoen med lavere kvalitet.

 

-Ko_deZ-

6272854[/snapback]

Spesialisérte prosessorer vil alltid være på den måten. Men jeg vil likevel tro at en CPU egner seg bedre enn GPU til fysikk.

6272938[/snapback]

Hva får deg til å tro det? Fysikk egner seg visstnok veldig godt til parallellisering, noe GPU er veldig mye bedre på enn en CPU. Ellers er vel hver enkelt operasjon flyttall, løsning av diff ligninger og sånt?

 

Som svar til ting lengre opp så finnes det lyd-software som bruker skjerm-kort til å emulere synthesizere og lyd-effekter.

 

dette kortet her:

http://www.procom.no/infoShop/isProductDis...p/details/23725

er visstnok basert på et utgammelt PCI skjermkort med 4 MB ram. Det selges som audio-akselerator til profesjonelle/semi-proffe for 7350,- inklusive software som utnytter hardwaren.

 

-k

Lenke til kommentar
Til gjengjeld vil PCen ha 1/60 av regnekraften til de tre skjermkortene =) Spesialisert hardware (i skjermkortenes tilfelle, regneoperasjoner) er alltid mer effektivt. Ikke uten grunn at man får dedikerte mpeg2 encodere som trekker 0.5W, mens man må ha en 1Ghz Athlon (ca 50W?) maskin til å encode samme videoen med lavere kvalitet.

 

-Ko_deZ-

6272854[/snapback]

Spesialisérte prosessorer vil alltid være på den måten. Men jeg vil likevel tro at en CPU egner seg bedre enn GPU til fysikk.

6272938[/snapback]

Hva får deg til å tro det? Fysikk egner seg visstnok veldig godt til parallellisering, noe GPU er veldig mye bedre på enn en CPU. Ellers er vel hver enkelt operasjon flyttall, løsning av diff ligninger og sånt?

 

Som svar til ting lengre opp så finnes det lyd-software som bruker skjerm-kort til å emulere synthesizere og lyd-effekter.

 

dette kortet her:

http://www.procom.no/infoShop/isProductDis...p/details/23725

er visstnok basert på et utgammelt PCI skjermkort med 4 MB ram. Det selges som audio-akselerator til profesjonelle/semi-proffe for 7350,- inklusive software som utnytter hardwaren.

 

-k

6272970[/snapback]

Slik jeg har forstått det er instruksjonssettet til CPU bedre egnet. For eksempel er trigonometri helt sentralt. Hvor gode er GPU på det?

 

Lyd-effekter er noe helt annet en fysikk.

Lenke til kommentar

CPU'er gjør faktisk ikke triognometri i det hele tatt. Hver gang det kommer en triognometrisk funksjon så lages det en makro som består av en liten løkke med enkel addering og multiplikasjon. Det er disse regnestykkene kjernen av en CPU regner ut og returnerer som resultatet av den triognometriske funksjonen. Det er slik det må gjøres (og allerede gjøres med grafikk fra og med Dx8) i en GPU også. F.eks brukes triognometri i beregning av lysbrytning. Hvis du husker da Radeon 9700Pro var nytt så ble det gitt ut noen demoer som tok dette i bruk i Dx8 med noen glasskuler. I Dx9 er det lettere og bedre gjennomført så det går ganske så glatt unna.

 

For ordens skyld: PPU må selvfølgelig bruke en tilsvarende teknikk for å behandle triognometri.

Lenke til kommentar
Lyd-effekter er noe helt annet en fysikk.

6272994[/snapback]

 

Nåvel, det er jo som regel basert på en lydbølges parametre i bunn og grunn. Husk at den fysikken som disse kortene skal regne ut bare er en liten del av fagfeltet fysikk, så bare fordi disse kortene ikke skal regne det ut, så betyr ikke det at det ikke er fysikk.

 

AtW

Lenke til kommentar
CPU'er gjør faktisk ikke triognometri i det hele tatt. Hver gang det kommer en triognometrisk funksjon så lages det en makro som består av en liten løkke med enkel addering og multiplikasjon. Det er disse regnestykkene kjernen av en CPU regner ut og returnerer som resultatet av den triognometriske funksjonen. Det er slik det må gjøres (og allerede gjøres med grafikk fra og med Dx8) i en GPU også. F.eks brukes triognometri i beregning av lysbrytning. Hvis du husker da Radeon 9700Pro var nytt så ble det gitt ut noen demoer som tok dette i bruk i Dx8 med noen glasskuler. I Dx9 er det lettere og bedre gjennomført så det går ganske så glatt unna.

 

For ordens skyld: PPU må selvfølgelig bruke en tilsvarende teknikk for å behandle triognometri.

6273032[/snapback]

Selvfølgelig må CPU og GPU bruke mange instruksjoner for å regne det ut, men det finnes også ulike måter å gjøre det på. Se her. Men det er nok variérende hvor presise de metodene er. Men er CPU eller GPU best egnet til dette?
Lenke til kommentar
Lyd-effekter er noe helt annet en fysikk.

6272994[/snapback]

Ikke egentlig. En analog synthesizer består av elektroniske kretser, etterklangen i et rom består av refleksjoner av bølgefronter, en gitar består av svingende oppspente strenger. Skal jeg fortsette?

 

-k

Lenke til kommentar

GPU fil nok være svært overlegen også på triognometri til fysikk/mekanikk siden oppgaven er mulig å parallellisere voldsomt. CPU har som kjent bare 1 pipeline (eller 2 på dobbeltkjerne) mens dagens GPU'er kan ha helt opp til 48. Neste generasjon skjermkort øker nok dette ennå mer. (R600 ryktes å få 64 pipelines/shaders og G80 skal vist få 32)

Lenke til kommentar
[ Selvfølgelig må CPU og GPU bruke mange instruksjoner for å regne det ut, men det finnes også ulike måter å gjøre det på. Se her. Men det er nok variérende hvor presise de metodene er. Men er CPU eller GPU best egnet til dette?

6273205[/snapback]

Jeg tror ikke du vil få et entydig svar på det. Det finnes forskjellige CPU og GPU arkitekturer, og forskjellige behov for fysiske algoritmer. ATI vurderer det tydeligvis slik at GPU kan være brukbart til dette. En liten google gav meg:

 

http://www.cs.unc.edu/~nico/courses/comp290-gpu/

 

"..Performance of Direct Dense Linear System Solvers on the GPU

Nicolas Galoppo von Borries, COMP290 class project, Fall 2004

 

Problem statement

 

Although there is a definite demand for GPU-based algorithms for scientific applications [4], they are still in their infancy when it comes down to solving general linear algebra routines (dense linear systems, eigendecomposition, SVDs, ...). The question is if GPUs can be useful for scientific applications (i.e. real simulation and not just "visual simulation"), therefore we want to address these fundamental problems. In the past, researchers have looked into solving sparse matrix problems [1] and other linear systems as part of more applied physical systems [2]. The hardest component of all of these algorithms was basic matrix-vector multiplication. It has also been reported that matrix-matrix multiplication is particularily inefficient on the GPU [5], mainly due to bad localization of such operations, leading to texture cache issues. In this particular project, we would like to tackle the fundamental problem of direct linear system solving through Gauss elimination on the GPU. In simple Gauss-Jordan elimination, the fundamental operations are basic row operations, unlike in matrix-matrix multiplication. We hope that this observation will help to find more GPU-friendly algorithms. We target a specific application, requiring the solution of a large number of small dense linear systems

 

Large 3D compressible fluid simulations are commonly performed by so-called CFD solvers on the CPU. The solver can be fairly complicated, but we would like to assess the viablility of performing a specific part of the computation on the GPU, offloading the CPU for other tasks in the meanwhile. The task at hand is to simulate the the kinetic reactions at specific locations in the large 3D simulation grid. For each voxel in the grid, the GPU has to solve a small (12x12) linear system provided by the main solver and return the solution vector (for each voxel). The idea is to pack a large number of those systems together such that they can be computed on the GPU efficiently in the least number of passes as possible.

 

For the simplest plume thermochemistry sets, there exist about 12 species participating in 16 reactions. On the CPU, the work involved is in constructing the elements of a 12 x 12 array of influence coefficients. Some of these reactions can involve one or three species one the reactant or product side, but the form remains the same. As each specie affects the effective composition of the other through the reaction equations, this solution is based solved implicitly as a linear set of equations, in this case a 12x12 matrix:..."

 

-k

Lenke til kommentar
GPU fil nok være svært overlegen også på triognometri til fysikk/mekanikk siden oppgaven er mulig å parallellisere voldsomt. CPU har som kjent bare 1 pipeline (eller 2 på dobbeltkjerne) mens dagens GPU'er kan ha helt opp til 48. Neste generasjon skjermkort øker nok dette ennå mer. (R600 ryktes å få 64 pipelines/shaders og G80 skal vist få 32)

6273299[/snapback]

Jeg vil tro R600 og G80 vil komme ytelsemessig ganske likt ut, på lik linje med andre GPU'serier fra erkerivalene. Hva gjør nVidia for å kompensere for ATI's dobling av pipelines?

Hvis dobbelt så mange pipelines skulle tilsi dobbel ytelse ryker nVidia rett ut. Hvis nVidia klarer å møte ytelsen til ATI uten like mange pipelines må utregningene kunne løses på andre måter. Det bringer oss litt tilbake til parallellisering og fysikk. Hvikle andre måter kan man løse tunge oppgaver på hvis de ikke vinner på massiv parallellisering?

(mulig jeg pratet meg litt bort her nå, men jeg håper poenget kom frem)

Lenke til kommentar

Såvidt jeg har skjønt dette, så ligger det i at nVidia og ATi opererer med to forskjellige typer pipelines, altså mengde ROP og TMU pipelinen er bygd opp av, er forskjellig. Og da om jeg har skjønt det riktig tar nVidia sine pipes større "biter", enn ATi.. Rett meg selvfølgelig om jeg tar feil..

Lenke til kommentar
GPU fil nok være svært overlegen også på triognometri til fysikk/mekanikk siden oppgaven er mulig å parallellisere voldsomt. CPU har som kjent bare 1 pipeline (eller 2 på dobbeltkjerne) mens dagens GPU'er kan ha helt opp til 48. Neste generasjon skjermkort øker nok dette ennå mer. (R600 ryktes å få 64 pipelines/shaders og G80 skal vist få 32)

6273299[/snapback]

Jeg vil tro R600 og G80 vil komme ytelsemessig ganske likt ut, på lik linje med andre GPU'serier fra erkerivalene. Hva gjør nVidia for å kompensere for ATI's dobling av pipelines?

Hvis dobbelt så mange pipelines skulle tilsi dobbel ytelse ryker nVidia rett ut. Hvis nVidia klarer å møte ytelsen til ATI uten like mange pipelines må utregningene kunne løses på andre måter. Det bringer oss litt tilbake til parallellisering og fysikk. Hvikle andre måter kan man løse tunge oppgaver på hvis de ikke vinner på massiv parallellisering?

(mulig jeg pratet meg litt bort her nå, men jeg håper poenget kom frem)

6273581[/snapback]

ATI har allerede 48 "pipelines" eller rettere sagt shader engines i sine toppmodeller X1900 XT og XTX. Nvidia har på sin side 24 pipelines i sine toppmodeller 7900 GT og GTX. Likevel er ytelsen på toppmodellene konkurransedyktige med hverandre. Det kommer nok av, som daniel sier, at ATI og Nvidia regner litt forskjellig og at enhetene som telles ikke er helt sammenlignbare.

Lenke til kommentar
Til gjengjeld vil PCen ha 1/60 av regnekraften til de tre skjermkortene =) Spesialisert hardware (i skjermkortenes tilfelle, regneoperasjoner) er alltid mer effektivt. Ikke uten grunn at man får dedikerte mpeg2 encodere som trekker 0.5W, mens man må ha en 1Ghz Athlon (ca 50W?) maskin til å encode samme videoen med lavere kvalitet.

 

-Ko_deZ-

6272854[/snapback]

Spesialisérte prosessorer vil alltid være på den måten. Men jeg vil likevel tro at en CPU egner seg bedre enn GPU til fysikk.

6272938[/snapback]

 

Da er jeg redd at du tar feil. Fysikk er matematisk beregninger, akkurat slik som 3D grafikk. CPU er ikke bra egnet til slikt i det hele tatt. Den har for få tråder, og bruker for mange klokker på de forskjellige matematiske operasjonene. CPU er laget for å eksekvere datakode. Den er god til å gjøre genrelle oppgaver. CPU er bra på løkker, if setninger og looper og slikt. GPU er fryktelig treg på spesielt "if" forespørsler, til gjengjeld kan den utføre like mange matematiske kalkulasjoner samtidig som den har antall pixel shadere (det er pixel shaderene som brukes til gpgpu). Når den i tillegg normalt bruker ferre klokker på en operasjon i forhold til CPU, så blir det raskere, og til tider adskillig raskere. Bakdelen er at det er litt krøkkete å programmere. Er ikke uten grunn at en store selskaper som jobber med databehandling av absurd store datamengder og data kalkulasjoner kjøper inn super-computere med massevis av nvidia 7800 og ikke en haug med CPUer. 1000 timer ekstra programmering, men det tjenes inn på ved at 1000 timers kalkulasjon på CPU tar 100 timer på skjermkortene. Min kjære studerer på UIO, og det hun skulle lage på master oppgaven var 40 (!) ganger raskere på GPU enn CPU.

 

-Ko_deZ-

Lenke til kommentar
ATI har allerede 48 "pipelines" eller rettere sagt shader engines i sine toppmodeller X1900 XT og XTX. Nvidia har på sin side 24 pipelines i sine toppmodeller 7900 GT og GTX.  Likevel er ytelsen på toppmodellene konkurransedyktige med hverandre. Det kommer nok av, som daniel sier, at ATI og Nvidia regner litt forskjellig og at enhetene som telles ikke er helt sammenlignbare.

6273700[/snapback]

Det har også mye med at dagens spill ikke er så PS ALU intensive at pipeline konfigrasjonen til X1900 kommer til sitt rette, på langt nær. Kanskje vil vi se en 2-3x økning fra X1800XT om et års tid eller så istedet for en "usslig" ~25-30% som idag.

Lenke til kommentar
Til gjengjeld vil PCen ha 1/60 av regnekraften til de tre skjermkortene =) Spesialisert hardware (i skjermkortenes tilfelle, regneoperasjoner) er alltid mer effektivt. Ikke uten grunn at man får dedikerte mpeg2 encodere som trekker 0.5W, mens man må ha en 1Ghz Athlon (ca 50W?) maskin til å encode samme videoen med lavere kvalitet.

 

-Ko_deZ-

6272854[/snapback]

Spesialisérte prosessorer vil alltid være på den måten. Men jeg vil likevel tro at en CPU egner seg bedre enn GPU til fysikk.

6272938[/snapback]

 

Ja, mulig tror tror det, men da tror du feil rett og slett.

Lenke til kommentar

Men så har vi juksefysikk og virkelige fysikkberegninger. I dataspill må alt gå i 60 (helst 85) bilder i sekundet så da tar man snarveier og jukser. Til det kan man lage veldig spesialiserte GPU og PPU'er? Men akkurat som 3D kvalitet blir resultatet bra, bare vent og se når CellFaktor får " - Fully destructable architecture "

 

 

Apropos Fully destructable architecture; ATIs GPU-as-PPU løsning er bare en "effekt-fysikk" løsning visstnok, ikke interaktiv fysikk. GPU'er er laget for enveis databehandling CPU til GPU, ikke CPU til PPU til CPU til GPU.

 

Quote: The difference? X1600 cost $99, PhsyX card costs $299. We have comparative benchmarks of neither

 

What a load of PR.

You forgot that the PPU can do interactive Physics on the PPU, some they are the only ones that can do.

Your are comparing apples and oranges.

Where will ALL the gameplay physics be calculated on ATI's solution?

 

Terra - Don't "PR" me...I find it insulting, thx...

http://www.hardforum.com/showthread.php?t=...01&page=3&pp=20

 

De er litt provoserende mot hverandre men jeg likte "Don't "PR" me" :)

 

 

Ellers ser det ut som PhysX PPU'en skuffer litt, får håpe det blir bedre med bedre støtte i spill og en raskere PCIe buss. PCI = 133MB/s total båndbredde til alle enheter, PCIe 1xLane= 250MB/s hver vei til hver enhet, 500MB/s totalt.

 

PhysX Enabled, Single CPU:

Min: 21

Max: 39

Avg: 32.4

 

PhysX Disabled, Single CPU:

Min: 11

Max: 31

Avg: 22.1

 

http://www.hardforum.com/showthread.php?t=1056037&page=2

Endret av Gambler FEX online
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...