Gå til innhold

ATI med treveis grafikkløsning


Anbefalte innlegg

Videoannonse
Annonse
Ei grafikkbrikke er da ikke opitmalisért for fysikkberegninger, noe som cpu tar seg av normalt sett. Om ATI ikke har gjort noe spesiellt med gpuene, så må nok likevel cpu ta seg av en del av jobben.

6265398[/snapback]

Hva baserer du dette på? Fysikk er jo svært paralelliserbart og ligner langt mer på grafikkprosessering enn generell CPU-prosessering. Så man kan godt si at skjermkort er spesielt godt egnet til fysikk. I hvertfall langt bedre egnet enn CPU'er.

 

eg trur ikkje et 1600 kort eller noken andre skjermkort kjem til å vere bedre enn PPU på endel ting, ppu er fortsatt laga for å jobbe kun med fysikk, og GPU er jo laga for grafikk...og det blir feil å samenligne et skjermkort med et fysikk kort også, da dei er relativt forskjellige..

6265401[/snapback]

Hva baserer du dette på? Fysikk og grafikk er begge svært lette å "granulere" til parallellprosessering. Noe som er spesialområdet til GPU. (Moderne GPU'er er faktisk rundt 100-500 ganger raskere enn moderne CPU'er til parallelle oppgaver som fysikk og grafikk). Og når ATI sier at selv et X1600 er dobbelt så rask som Aeigas PPU så må det vel ligge noe i det? (Det kan ikke være bare løgn selv om det kommer fra ATI selv, for da skyter de seg selv i foten når det blir slaktet i ettertid)

 

Hva er best, enkelt grafikkort+dedikert fyskikkort eller CF? Kanskje en løsning passer til spill og en annen tungregning og videoredigering.?

6265681[/snapback]

Om det ATI sier stemmer så vil du få rundt 9 ganger bedre fysikkytelse med X1900XTX + X1900XTX enn med X1900XTX + Aeiga PhysX.

 

Men jeg savner ennå at ett skjermkort kan kjøre både fysikk og grafikk samtidig med dynamisk lastbalansering. Når det kommer så vil det være lett å se for seg at man bruker 3-400 kr ekstra på Pro-versjonen av et skjermkort i stedet for standardversjonen for å få fysikkytelse som overgår PhysX med på kjøpet.

 

Men slik lastbalansering ser jeg ikke for meg kommer før neste generasjon skjermkort. Dvs. Nvidias G80-serie og ATIs R600-serie. (Begge med Dx10)

 

Selv er jeg på utkikk etter det raskeste passiv kjølte (med enkel kjøler) skjermkortet med dual DVI og minimum Dx9.0c som støttes av Linux uten mye om og men. Dette finner jeg allerede i form av geforce 6700GS, men det kan hende jeg venter helt til Nvidias G80 (geforce 8600GS?) om det blir vifteløst. ATI's kort er uansett uaktuelle på grunn av elendig linux-støtte.

Lenke til kommentar

Jeg tror GPU som PPU erstatter kan funke glimrende. De mangler selvfølgelig litt av spesialiseringen, men i lang tid vil de ta igjen det påa ndre faktorer. GPUer har per i dag mye bedre minnehierarki enn PPU, bedre CMOS prosess og høyere volum. Det veier glatt opp for den lavere spesialiseringen når de er så til de grader like i prinsipp.

Lenke til kommentar
Gjest Slettet+9018234

For den normale mannen i gata: Hold dere til 1-2 slots-kort. Mitt ATI Sapphire X800GTO PCI-E kommer nok til å holde i et par år fremover for mitt bruk.

Lenke til kommentar

 

eg trur ikkje et 1600 kort eller noken andre skjermkort kjem til å vere bedre enn PPU på endel ting, ppu er fortsatt laga for å jobbe kun med fysikk, og GPU er jo laga for grafikk...og det blir feil å samenligne et skjermkort med et fysikk kort også, da dei er relativt forskjellige..

6265401[/snapback]

 

Hva baserer du dette på? Fysikk og grafikk er begge svært lette å "granulere" til parallellprosessering. Noe som er spesialområdet til GPU. (Moderne GPU'er er faktisk rundt 100-500 ganger raskere enn moderne CPU'er til parallelle oppgaver som fysikk og grafikk). Og når ATI sier at selv et X1600 er dobbelt så rask som Aeigas PPU så må det vel ligge noe i det? (Det kan ikke være bare løgn selv om det kommer fra ATI selv, for da skyter de seg selv i foten når det blir slaktet i ettertid)

 

vel det eg meinte var å samenligne 2 kort, når f.eks et kort kan gjere meir arbeid pr mhz f.eks, da den er meir beregna til dei oppgavene, enn et anna kort som kanskje er mykje raskere, har meir ram etc kan vere litt feil..(husker eg leste en post her på forum om det, men eg fant ikkje igjen:/) men uansett det blir endel synsing før vi faktisk får testa et dedikert fysikk kort, mot et skjermkort.

og det kommer vel en nyere og bedre versjon av physx kortet, for utifra det eg har lest, så har physx venta ei stund med å utgi kortet da det ikkje var komt nok spill, så physx holder vel på med en nyere og bedre variant, akkuratt sånn som at ATI og Nvidia kjem med nye skjermkort.. og når Physx kortet er et relativt nytt produkt som vi ikkje enda har fått testa skikkelig enda, da med tanke på drivere og slikt, så syns eg det er litt for tidlig av ATI å vere så pass frampå med sånne ytelses tall.

Lenke til kommentar

Tidligere har jeg hørt snakk om at denne Havok løsningen blir værre enn Ageia sin? Var det noe om hvor mye det kostet for spillprodusentene eller noe sånnt som gjorde at det ble tidligere fastslått at Ageia sin løsning ville bli mest brukt?

Endret av Zuckron
Lenke til kommentar

Problemet med bruken av GPU er tilbakeføring av dataene til HK, men ved en enkel test med baller så er ikke nødvendigvis testen så realsitisk som et spill. Siden man slipper tilbakeføringen av dataene på samme måten.

Det må også være klart at testen er gjort med 3 kort. Og at man ikke på langt nær vil få de samme resultatene med 2 eller 1 kort.

Lenke til kommentar

hvis cpu nå tar seg av all fysikk ting, hvorfor lages det ikke bare en driver for dobbelkjærner som gjør at den ene kjærnen tar seg av fysikk og den andre spillet? i spill sammenheng er jo ikke DC utnyttet uansett slik ting er i dag. blir for masse tull i maskinen. 1 skjermkort og 1 cpu skal holde.

Lenke til kommentar
alle skjønner at det er denne veien det går. snart får vi vel både 8 og 6 veis SLI/crossfire. bare for at entusiaster skal sette bech rekorder.

6265600[/snapback]

Dette må jo være veldig interessant for proffe Virtual Reality brukere, forsvarets flysimulatorer etc. Når alternativet er proprietær hardware til hundretusener er det alltid interessant å se hvor langt man kan dra "konsumenthardware".

 

Det er dog litt klussete med SLI løsninger. Kanskje man burde ha en standardisert løsning hvor tilkoblinger (VGA/DVI) var en del av hovedkortet, og et antall "grafikk/fysikk-akselleratorer" kunne plugges inn der hvor dette var mest hensiktsmessig mhp varme og båndbredde, common pool minne (+ lokal "cache") etc? For dumt å måtte ha 3 skjermkort med 512MB separat minne etc...

 

-k

Lenke til kommentar

eg kunne egentlig tenkt å sett en lignende løsning som Amiga hadde, med en moderne vri, der f.eks en kjøper et hovedkort, med et bestemt chipsett, da kan du velge mellom skjermkort, og enn PPU co prosessor, og en CPU. det trur eg kunne blitt bra med et system med det bassert på det der + AMD sin 4x4 "teknologi", men det vil jo føre til komplex HK arkitektur, og økt pris..men man får jo samla alt på et kort..

Lenke til kommentar
alle skjønner at det er denne veien det går. snart får vi vel både 8 og 6 veis SLI/crossfire. bare for at entusiaster skal sette bech rekorder.

6265600[/snapback]

Dette må jo være veldig interessant for proffe Virtual Reality brukere, forsvarets flysimulatorer etc. Når alternativet er proprietær hardware til hundretusener er det alltid interessant å se hvor langt man kan dra "konsumenthardware".

 

Det er dog litt klussete med SLI løsninger. Kanskje man burde ha en standardisert løsning hvor tilkoblinger (VGA/DVI) var en del av hovedkortet, og et antall "grafikk/fysikk-akselleratorer" kunne plugges inn der hvor dette var mest hensiktsmessig mhp varme og båndbredde, common pool minne (+ lokal "cache") etc? For dumt å måtte ha 3 skjermkort med 512MB separat minne etc...

 

-k

6266379[/snapback]

 

Om jeg ikke misforsto så var det noe snakk om dette på AMD Analyst Day:

 

"In the meantime, we can all dream sweet dreams over the possibilities AMD's Torrenza presents. Giving expansion cards the bandwidth and low latency of an HTX connection with the ability to support coherent HyperTransport will enable hardware vendors to create a new class of expansion card. Though AMD likes to call these "accelerators," we'll try our best to steer clear of buzz words and marketing speak. Suffice it to say that giving hardware vendors the capability of accessing any CPU or memory in the system directly with cache coherency should really shake things up. The advantages are probably most apparent to the HPC market, where HTX can offer an easy and standard way to add custom FPGAs or very specialized hardware to a massive system. However, there are absolutely advantages out there for those who want to build hardware to really work in lock-step with the CPU.

 

This applies directly to companies like AGEIA with their PhysX card which, when used in a game, must communicate bi-directionally with the CPU before a frame can be sent to the GPU for rendering. Additionally, GPU makers could easily take advantage of this technology to tie the graphics card even more tightly to the CPU and system memory. In fact, this would serve to eliminate one of the largest differences between PCs and game consoles. The major advantage that still remains on console systems (aside from their limited need for backwards compatibility compared to the PC) is the distance from the CPU to the GPU. There is huge bandwidth and low latency between these two subsystems in a console, and many games are written to take advantage of (or even depend on) the ability to actively share the rendering workload between the CPU and GPU on a very low level. Won't it be ironic if we start seeing high performance Xbox 360 and PS3 emulators only a couple years after their release? This is the kind of thing that could make it possible."

 

http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2768&p=1

 

AtW

Lenke til kommentar

Hirr, "PS3 Addon, 2500kr" :D

 

Hvis en PPU (eller en GPU satt til å gjøre fysikkberegninger), tar veldig mye arbeid fra CPU, vil vel denne klare å fôre renderering raskere også. Er det noen som vet om det har blitt foretatt noen slags beregninger på hvor mye CPU-kraft ekstra som kan bli ledig til slikt noe? Hvis det er snakk om store tall, så kan det jo hende dette kan fungere til dedikerte PPUer sin fordel. Hvem vil vel bruke skjermkortet(ene) sitt(sine) til fysikk når en kan få en hel haug ekstra FPS ved å bruke dedikert PPU?

 

Eller er det rett og slett ikke noe å ta hensyn til? Hvilke deler av CPU er det som blir flaskehalsen når det er snakk om at et grafikkort et CPU-begrenset? Hva er det som fôrer grafikkortet med data?

Lenke til kommentar
syns dem er litt optimistiske over hvor mange kort vanlige folk bryr seg med å kjøpe.

 

tre grafikkort? kommer jeg neppe til å kjøpe.

6265285[/snapback]

 

 

Fordelen med dette oppsetet er at når du oppgraderer grafikkortet ditt kan du beholde det gamle for å ta seg av fysikken. En ganske smart løsning spør du meg....

Lenke til kommentar
vel det eg meinte var å samenligne 2 kort, når f.eks et kort kan gjere meir arbeid pr mhz f.eks, da den er meir beregna til dei oppgavene, enn et anna kort som kanskje er mykje raskere, har meir ram etc kan vere litt feil..(husker eg leste en post her på forum om det, men eg fant ikkje igjen:/) men uansett det blir endel synsing før vi faktisk får testa et dedikert fysikk kort, mot et skjermkort.

og det kommer vel en nyere og bedre versjon av physx kortet, for utifra det eg har lest, så har physx venta ei stund med å utgi kortet da det ikkje var komt nok spill, så physx holder vel på med en nyere og bedre variant, akkuratt sånn som at ATI og Nvidia kjem med nye skjermkort.. og når Physx kortet er et relativt nytt produkt som vi ikkje enda har fått testa skikkelig enda, da med tanke på drivere og slikt, så syns eg det er litt for tidlig av ATI å vere så pass frampå med sånne ytelses tall.

6265991[/snapback]

Jeg er så vidt delvis enig. Et av dagens skjermkort kan sikkert ha lavere effektivitet i fysikk per pipeline og per MHz. La oss ta litt i og si et gitt skjermkort bare klarer å utnytte skuffende 50% av den teoretiske kapasiteten til fysikk. Og at Aeiga PhysX klarer en effetkivitet på imponerende 95% av teoretisk. Da vil fortsatt et Rade on X1600 slå Aeiga PhysX med en liten ytelsmesssig margin siden det har en teoretisk kapasitet på det dobbelte av det PhysX har. Hvis man ser litt nærmere på PhysX så har det svært få pipelines, svært dårlig produksjonsteknikk, svært dårlig klokkefrekvens og svært dårlig minnebåndbredde i forhold til skjermkort. Det er godt mulig Aeiga kommer med en kraftig oppdatering av kortet etter hvert, men så har jo også ATI allerede 9 ganger den teorettiske ytelsen i form av X1900XTX tilgjengelig i markedet NÅ. Hvem vet hva PhysX 2 må konkurrere mot? Radeon X2900 XTX og geforce 8850 GX2?

 

La oss ta i og si at PhysX 2 blir hele 5 ganger så kjapp som dagens PhysX, og de nye kortene til ATI og Nvidia bare blir 20% raskere enn dagens toppmodeller. (Noe som sikkert er en overdrivelse for PhysX og en underdrivelse for ATI/Nvidia, men jeg tar det med for å poengtere noe..) Da vil fortsatt Skjermkortene ha en ytelsemessig fordel over PhysX 2. Selv om vi regner inn en langt større ineffektivitet hos skjermkort. Merk at nå har jeg vinklet tallene med vilje svært pessimistisk for skjermkortene og svært optimistisk for PhysX for å se om det mulighens kan ha noe å stille opp med.

 

Det vil si at PhysX enten må forbedres usansynlig mye eller må ned i godt under 1000kr for å gi mye fysikkytelse for pengene. (Under 1000kr konkurrerer det bare mot de dårligste skjermkortene og kan dermed slå de på ytelse) Err.. vent litt. I den prisklassen vil det nok konkurrere mot ETT skjermkort som gjør begge deler med dynamisk lastbalansering. Altså f.eks at kjøperen bruker 1500kr på et skjermkort som gjør både grafikk og fysikk i stedet for 1000kr på et skjermkort og 500kr på PhysX. PhysX må altså ekstremt mye ned i pris for å være attraktivt. (med mindre det skjer voldsomme ting med ytelsen på neste generasjon PhysX)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...