Gå til innhold

PhysX for Geforce


Anbefalte innlegg

Videoannonse
Annonse

Ingen grafikkprosessor, hverken fra ATI, AMD eller nVIDIA har eller har hatt noe dedikert hardware til fysikk. Det er bare reklame-jippo.

 

 

PhysX er i liket med Havoc et API for fysikk i spill. Det er flere 100 spill som bruker disse API'ene. Per dags dato så har all fysikk blitt kjørt på CPU (ved hjelp av en driver). Det som nVIDIA har gjort nå etter at de kjøpte AGEIA er at de har skrevet en ny driver som kjører på grafikkort isteden for CPU.

 

For å programmere mot grafikkort bruker de CUDA. Det gjør at de kan skrive driveren med vanlig C-kode som kjøres på alle grafikkort som støtter CUDA. CUDA er åpent, og AMD kan også implementere det uten å betale penger til nVIDIA hvis de ønsker.

 

Fysikk brukes på flere måter i spill. Den mest brukte måten å bruke disse API'ene på er å lage enkle effekter som kan kjøres på alle maskiner. API'ene kan også kjøre på CPU til både Xbox 360 og Playstation 3.

 

AGEIA fant også ut at det hadde vært kult med enda flere og mer avanserte effekter. Problemet da var at dagens CPU'er ikke er spesielt egnet til disse kalkuleringene sammenlignet med mer spesialisert hardware. Derfor lanserte de for noen år tilbake egne desikerte fysikk kort (klat PPU'er). Dette ble aldri noen suksess, og kun noen få spill Unreal Turnament III, GRAW, etc. bruker dette foreløpig. Her kommer det flere spill. Det siste jeg hørte fra en av TWIMTBP-folka til nVIDIA før sommern var at over 20 spill var på vei.

Lenke til kommentar

Ingen grafikkprosessor, hverken fra ATI, AMD eller nVIDIA har eller har hatt noe dedikert hardware til fysikk. Det er bare reklame-jippo.

Ok, da er det jeg som har misforstått. Med mitt 8800GTS-kort fulgte det drivere som også installerte PhysX, for å oppnå bedre ytelse i det medfølgende spillet GRAW. Jeg antok derfor at dette var noe som satt på kortet uten å tenke så mye mer over det.
Lenke til kommentar

For å programmere mot grafikkort bruker de CUDA. Det gjør at de kan skrive driveren med vanlig C-kode som kjøres på alle grafikkort som støtter CUDA. CUDA er åpent, og AMD kan også implementere det uten å betale penger til nVIDIA hvis de ønsker.

 

Jeg har sett lit på Nvidia's Developer Tools & SDK for CUDA. Selv om den er ny og har sine barnesykdommer, men er veldig ryddig og oversiktlig for de som har erfaring med C-programmering. Den er så åpen og ryddige at ATI vil ha ingen problemer å bruke det rent teknisk. Jeg tror andre saker gjør valget vanskeligere, nemlige ATI's egen Stream SDK kommer til gå i vasken.

Lenke til kommentar

Ja.

 

Fordelen er også at skjermkortene ikke trenger å være tilnærmet like, som man må ved bruk av SLI. Du kan med andre ord blande et 8-serie kort med et GTX280, eller andre kombinasjoner. (så lenge det er skjermkort innenfor 8-serien eller nyere)

 

Å ha et SLI-hovedkort er heller ikke nødvendig (naturligvis), da det ikke er snakk om SLI i seg selv. :)

Lenke til kommentar

Dersom dette faktisk virker uten for mye bugs og tweaks kan det gi nvidia et sårt trengt løft. De driver og dummer seg litt ut for tiden med vanskelige hovedkort, SLI bugs og dyre grafikkort. Jeg sitter selv med et defekt 680i, et 780i som jeg trodde var defekt og et 650i ... har vært masse tull og reinstalleringer hele veien.

Lenke til kommentar

Eller man kan si at ATI gjør nVidia dyre :p Det vil jo i fremtiden bli billigere og billigere, og det er bare ATI som har tatt et litt stort steg i disse dager. Det er godt for oss forbrukere og nVidia får dårlige konsekvenser ved ikke å følge med.

 

Så snart X2'en bli lansert fra ATI så tror jeg mye annet vil droppe litt i pris. namnam :fun:

Lenke til kommentar
Det er ATI som har billige, ikke nvidia som er dyre (kilde:Highend skjermkort pris historie)

Uansett hva den kilden måtte mene, GPU har vær veldig dyrt, og dette er pga. manglende konkurranse. Det er latterlig at en GPU skal koste mer en hel HK, eller en hel bærbare maskin som f.eks MSI Wind.

 

Tiden for rådyre GPU (både fra ATI og Nvidia) er over, fordi ATI har startet en historisk konkurranse. Vi kommer til å se rimelig og bra GPU fra begge leire for en stund fremover.

Lenke til kommentar
Jeg gleder meg i allefall. Kjøpte et 8800GTX for 1500 spenn for litt siden så nå har jeg to. SLI var en stor skuffelse, men kanskje med litt PhysX og CUDA så kan jeg tyne litt verdi ut av det alikevel :)

Hva forventet du, og hva fikk du?

Forventet høyere fps ... fikk forsåvidt det her og der, men masse kræsjing også :)

Lenke til kommentar

Dette er gammelt nytt på guru3d og andre steder.

 

Men for å svare på noen av spørsmålene:

 

Støtte:

Alle GF8/9/GTX200 er støttet. Usikker om mobile versjoner, ettersom de er avhengige av drivere fra leverandør osv.

 

Kjøre Modus:

Du kan kjøre 2 kort i pc, en for 3D og den andre for PhysiX. Da er det snakk om en dedikert "billig" kort som brukes kun til physiX.

 

Ellers kan man bruke en singel kort til både grafikk og fysikk. Men da kan det bli spill hakkete hvis de krever mye grafikk. Kan bli tilfeller der software fysikk blir lønnsømt.

 

Sli brukere kan benytte begge kortene til både grafikk og fysikk, eller velge hvilket kort vil gjøre hva.

 

 

Kilde: Guru3d

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...