Boye Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 Ble det ikke for en tid tilbake diskutert litt om hvordan nVidia ikke benyttet samme type/like realistiske simuleringen som Ageia gjorde? Vann for eksempel. Ikke bare kollisjoner, men også andre type simuleringer? Dette kan bli spennende! Lenke til kommentar
efikkan Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 Ei grafikkbrikke er da ikke opitmalisért for fysikkberegninger, noe som cpu tar seg av normalt sett. Om ATI ikke har gjort noe spesiellt med gpuene, så må nok likevel cpu ta seg av en del av jobben. 6265398[/snapback] Nå er jeg ingen ekspert på området, men jeg mener og huske at GPU faktisk er overlegen i forhold til å foretå slike kalkulasjoner siden det er det den er designet til i forhold til Grafikk. 6265434[/snapback] Fysikk og grafikk må ikke blandes. Fysikkberegninger er det cpu (og eventuellt fysikkprosessorer) som er suverene på. Lenke til kommentar
OnetroM Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 Jeg er ikke helt uenig Simen, men litt er jeg allikevel. Det blir litt på kanten å sammenligne ATI's toppmodel som koster dobbelt så mye som physx kortet. Men jeg tar poenget. Physix kortet har en annen fordel, men vi få se hvor lenge det varer. Det passer i PCI spor. Da kan vi som ikke vil bruke alle feriepengene på data'n faktisk ha mulighet til fysikk go'saker. Det er vel ikke så mange med SLI/CF HK og i alle fall ikke med 3xPCIe. Nå kommer vel kanskje physx2 til å ha PCIe, så da er vi vel like langt.. Lenke til kommentar
Solefald Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 (endret) vel det eg meinte var å samenligne 2 kort, når f.eks et kort kan gjere meir arbeid pr mhz f.eks, da den er meir beregna til dei oppgavene, enn et anna kort som kanskje er mykje raskere, har meir ram etc kan vere litt feil..(husker eg leste en post her på forum om det, men eg fant ikkje igjen:/) men uansett det blir endel synsing før vi faktisk får testa et dedikert fysikk kort, mot et skjermkort.og det kommer vel en nyere og bedre versjon av physx kortet, for utifra det eg har lest, så har physx venta ei stund med å utgi kortet da det ikkje var komt nok spill, så physx holder vel på med en nyere og bedre variant, akkuratt sånn som at ATI og Nvidia kjem med nye skjermkort.. og når Physx kortet er et relativt nytt produkt som vi ikkje enda har fått testa skikkelig enda, da med tanke på drivere og slikt, så syns eg det er litt for tidlig av ATI å vere så pass frampå med sånne ytelses tall. 6265991[/snapback] Jeg er så vidt delvis enig. Et av dagens skjermkort kan sikkert ha lavere effektivitet i fysikk per pipeline og per MHz. La oss ta litt i og si et gitt skjermkort bare klarer å utnytte skuffende 50% av den teoretiske kapasiteten til fysikk. Og at Aeiga PhysX klarer en effetkivitet på imponerende 95% av teoretisk. Da vil fortsatt et Rade on X1600 slå Aeiga PhysX med en liten ytelsmesssig margin siden det har en teoretisk kapasitet på det dobbelte av det PhysX har. Hvis man ser litt nærmere på PhysX så har det svært få pipelines, svært dårlig produksjonsteknikk, svært dårlig klokkefrekvens og svært dårlig minnebåndbredde i forhold til skjermkort. Det er godt mulig Aeiga kommer med en kraftig oppdatering av kortet etter hvert, men så har jo også ATI allerede 9 ganger den teorettiske ytelsen i form av X1900XTX tilgjengelig i markedet NÅ. Hvem vet hva PhysX 2 må konkurrere mot? Radeon X2900 XTX og geforce 8850 GX2? La oss ta i og si at PhysX 2 blir hele 5 ganger så kjapp som dagens PhysX, og de nye kortene til ATI og Nvidia bare blir 20% raskere enn dagens toppmodeller. (Noe som sikkert er en overdrivelse for PhysX og en underdrivelse for ATI/Nvidia, men jeg tar det med for å poengtere noe..) Da vil fortsatt Skjermkortene ha en ytelsemessig fordel over PhysX 2. Selv om vi regner inn en langt større ineffektivitet hos skjermkort. Merk at nå har jeg vinklet tallene med vilje svært pessimistisk for skjermkortene og svært optimistisk for PhysX for å se om det mulighens kan ha noe å stille opp med. Det vil si at PhysX enten må forbedres usansynlig mye eller må ned i godt under 1000kr for å gi mye fysikkytelse for pengene. (Under 1000kr konkurrerer det bare mot de dårligste skjermkortene og kan dermed slå de på ytelse) Err.. vent litt. I den prisklassen vil det nok konkurrere mot ETT skjermkort som gjør begge deler med dynamisk lastbalansering. Altså f.eks at kjøperen bruker 1500kr på et skjermkort som gjør både grafikk og fysikk i stedet for 1000kr på et skjermkort og 500kr på PhysX. PhysX må altså ekstremt mye ned i pris for å være attraktivt. (med mindre det skjer voldsomme ting med ytelsen på neste generasjon PhysX) 6267199[/snapback] vel da venter vi og ser =) er meget spent egentlig på korleis det kommer til å gå, men det virker som at Havoc med ATI\Nvidia ligger ei runde forran Ageia på løpebana for øyblikket. Men eg trur ikkje Ageia hadde laget et PPU kort, visst dei ikkje hadde en form for plan mot å slå Havoc. Så eg vil tru det er litt for tidlig til å kva som er best enda. eg tør vertfall ikkje å tru for mykje enda. men fra mitt synspunkt, så håper eg Ageia kommer med noke bra. men den absolutte fordelen utifra det eg har skjønt, er at når utviklerane skal programmere, så koster det dei mykje, å bruke Havoc, mens Ageia er gratis...så altså det er mulig at Havoc får beste ytelsen, men med Ageia, så støtter det fleire spill. Det eg prøver å komme fram til er at med Ageia, så får du bedre ytelse på fleire spill, men med Havoc får du best ytelse på dei spilla som kjem med støtte for Havoc sin versjon. Endret 8. juni 2006 av Solefald Lenke til kommentar
ATWindsor Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 Ei grafikkbrikke er da ikke opitmalisért for fysikkberegninger, noe som cpu tar seg av normalt sett. Om ATI ikke har gjort noe spesiellt med gpuene, så må nok likevel cpu ta seg av en del av jobben. 6265398[/snapback] Nå er jeg ingen ekspert på området, men jeg mener og huske at GPU faktisk er overlegen i forhold til å foretå slike kalkulasjoner siden det er det den er designet til i forhold til Grafikk. 6265434[/snapback] Fysikk og grafikk må ikke blandes. Fysikkberegninger er det cpu (og eventuellt fysikkprosessorer) som er suverene på. 6267281[/snapback] Grafikk kan jo ses på som en type fysikkberegning, det er jo snakk om å regne seg fram til hva slags lysbølger som treffer hvilke punkter, nå er jeg ikke sikker på hvor mye av dette som brukes i spill, men raytracing, conetracing og alle de variantene der brukes jo til andre fysikkberegninger enn bare lys også. Selv om det jo hovedsaklig er snakk om enkel mekanikk som disse fysikkortene skal ta seg av(?) AtW Lenke til kommentar
sjarken Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 (endret) Hvis jeg forstår rett så kan man altså bruke et f.eks. xt 1900 som master og et xt 1600 som fysikk. Hvordan skal dette setter opp?? Kan det brukes på det hovedkortet som jeg allerede har, eller må man kjøpe noe annet..?? Endret 8. juni 2006 av sjarken Lenke til kommentar
ElderScrollsinisten Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 (endret) Milde Moses, så genialt! -"Et Radeon X1600 XT skal for eksempel være dobbelt så kraftig som Ageias PhysX, mens et Radeon X1900 XTX skal være hele ni ganger så kraftig." - Høres jo helt supert ut. Var ikke helt overbevist om det ageia-kortet. Hvis dette er så bra "og billig" som de lover fortjener de virkelig en gratulasjon! Endret 8. juni 2006 av ElderScrollsinisten Lenke til kommentar
Solefald Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 Ei grafikkbrikke er da ikke opitmalisért for fysikkberegninger, noe som cpu tar seg av normalt sett. Om ATI ikke har gjort noe spesiellt med gpuene, så må nok likevel cpu ta seg av en del av jobben. 6265398[/snapback] Nå er jeg ingen ekspert på området, men jeg mener og huske at GPU faktisk er overlegen i forhold til å foretå slike kalkulasjoner siden det er det den er designet til i forhold til Grafikk. 6265434[/snapback] Fysikk og grafikk må ikke blandes. Fysikkberegninger er det cpu (og eventuellt fysikkprosessorer) som er suverene på. 6267281[/snapback] Grafikk kan jo ses på som en type fysikkberegning, det er jo snakk om å regne seg fram til hva slags lysbølger som treffer hvilke punkter, nå er jeg ikke sikker på hvor mye av dette som brukes i spill, men raytracing, conetracing og alle de variantene der brukes jo til andre fysikkberegninger enn bare lys også. Selv om det jo hovedsaklig er snakk om enkel mekanikk som disse fysikkortene skal ta seg av(?) AtW 6267332[/snapback] fysikken skal jo regne ut kva som skjer når du gjer en ting, f.eks slår til et tre med et sverd, køyrer på en person med en bil etc, den regner ut resultatet utifra kva som skjer, f.eks visst du sprenger ei kasse, kor flyr bitane, kva skjer når dei f.eks treffer en vegg etc.. Lenke til kommentar
ATWindsor Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 Ei grafikkbrikke er da ikke opitmalisért for fysikkberegninger, noe som cpu tar seg av normalt sett. Om ATI ikke har gjort noe spesiellt med gpuene, så må nok likevel cpu ta seg av en del av jobben. 6265398[/snapback] Nå er jeg ingen ekspert på området, men jeg mener og huske at GPU faktisk er overlegen i forhold til å foretå slike kalkulasjoner siden det er det den er designet til i forhold til Grafikk. 6265434[/snapback] Fysikk og grafikk må ikke blandes. Fysikkberegninger er det cpu (og eventuellt fysikkprosessorer) som er suverene på. 6267281[/snapback] Grafikk kan jo ses på som en type fysikkberegning, det er jo snakk om å regne seg fram til hva slags lysbølger som treffer hvilke punkter, nå er jeg ikke sikker på hvor mye av dette som brukes i spill, men raytracing, conetracing og alle de variantene der brukes jo til andre fysikkberegninger enn bare lys også. Selv om det jo hovedsaklig er snakk om enkel mekanikk som disse fysikkortene skal ta seg av(?) AtW 6267332[/snapback] fysikken skal jo regne ut kva som skjer når du gjer en ting, f.eks slår til et tre med et sverd, køyrer på en person med en bil etc, den regner ut resultatet utifra kva som skjer, f.eks visst du sprenger ei kasse, kor flyr bitane, kva skjer når dei f.eks treffer en vegg etc.. 6267538[/snapback] Ja, det faller vel inn under enkel mekanikk. AtW Lenke til kommentar
Simen1 Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 Jeg er ikke helt uenig Simen, men litt er jeg allikevel. Det blir litt på kanten å sammenligne ATI's toppmodel som koster dobbelt så mye som physx kortet. Men jeg tar poenget. Physix kortet har en annen fordel, men vi få se hvor lenge det varer. Det passer i PCI spor. Da kan vi som ikke vil bruke alle feriepengene på data'n faktisk ha mulighet til fysikk go'saker. Det er vel ikke så mange med SLI/CF HK og i alle fall ikke med 3xPCIe. Nå kommer vel kanskje physx2 til å ha PCIe, så da er vi vel like langt.. 6267285[/snapback] Tja, PCI kan sikkert være en fordel, men jeg ser for meg at de vil bruke PCI-express x1 eller x4 når de kommer i PCI-e format og da vil de fleste ha ledige porter til et slikt kort. x1 og x4-portene brukes jo alt for lite i dag fordi folk har for mange gammeldagse PCI-kort. Lenke til kommentar
brukernamn Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 Eg ser ein del ser på PhysX som eit heller uønska produkt og/eller eit produkt som har lite for seg. Men dersom eg ikkje tek heilt feil må eit produkt i det minste ha eit snev av overlevingsevne før t.d. ATi eller andre store produsentar plukkar opp ideen. Det kan sjølvsagt vere snakk om eit forsøk på å flyte på kort-bølgja dei har sendt føre seg, i håp om at nok eit kort får innpass i datamaskinene våre, men eg trur nok PhysX er litt meir gjennomtenkt enn som så. Eg trur at få her inne kan seie eksakt korleis fysikkortet fungerer i forhold til eit skjermkort, og det er sikkert like vanskeleg å seie kor grensa mellom "grafikk" og "fysikk" går, då det i ein del tilfelle er to sider av samme sak. Det vert uansett spanande å sjå korleis dette utfoldar seg, og lat oss så håpe for PhysX si skuld at det ikkje er så dårleg som nokre fryktar Lenke til kommentar
JAPCU Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 (endret) Jeg lurer på hvordan spill kommer til å utnytte fysikk-korta. Kommer fysikk-kort til å bli et krav til å kjøre spillet brukelig? Eller kommer det til å virkelig til avlaste CPU og gi brukelig fps hvis maskinen ikke har rask nok cpu? Det kan jo bli billigere! Kjøpe en billig cpu + fysikk-kort istedet for bare en skikkelig dyr cpu som kanskje gjør jobben dårligere. På en annen side synes jeg er det nok variabler når det kommer til hardware selv i dag... Spillprogrammererne har ikke en lett jobb da spillet skal virke på alt mulig rart.... Dessuten er det for vanskelig selv i dag for "ikke-nerder" å finne ut om pc'n deres drar spillet... Men sånn er det med pc. Synes jeg hørte noe om at Vista skulle rydde opp i dette og lage standarder for hvor bra pc'n er slik at folk enkelt vet om det virker skikkelig. OT. Har noen prøvd Truck Dismount/rekkaturvat!? Bruker fysikk. Link: http://jet.ro/dismount/ Flere spill på fun-motion.com mye bra her!! Enda ett siste "spill/leketøy": Soda Play : Constructor. Må prøves: trykk på "launch" Beskrivelse: lar deg tegne 2d figurer som bruker fysikk... figurer som går/ruller/sleper/ormer seg fram... bare vha. masse og ledd. gravitasjon (g) og leddstyrke (k) er viktig! Endret 8. juni 2006 av JAPCU Lenke til kommentar
daniel_984 Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 Om jeg ikke har misforstått, så står vel fysikkberegning av mye for tapt prossessorkraft i maskinen idag (sett relativt bort fra AI), og lurer derfor hva alle her er så mistenksomme mot ATi og nVidia sine løsninger med Havok om.. Det sier seg selv at en slik løsning som konvertering av GPU X1600 kort (og mindre) til PPU er tjente krefter i en maskin enn et inneffektivt kort med dårlig programmering og produksjonsteknikk (TCGR: Advanced Warfighter som siste eks.). Dessuten, som ATWindsor så godt nevner, med fordelen at GPU allerede har etablert en optimal forbindelse med HK og CPU i dagens systemer vil jo de dra nytte av dette, fremfor en fremmed og ny aktør med relativt dårlig kunnskap.. Lenke til kommentar
Demogorgon Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 Hva baserer du dette på? Fysikk og grafikk er begge svært lette å "granulere" til parallellprosessering. Noe som er spesialområdet til GPU. (Moderne GPU'er er faktisk rundt 100-500 ganger raskere enn moderne CPU'er til parallelle oppgaver som fysikk og grafikk). Og når ATI sier at selv et X1600 er dobbelt så rask som Aeigas PPU så må det vel ligge noe i det? (Det kan ikke være bare løgn selv om det kommer fra ATI selv, for da skyter de seg selv i foten når det blir slaktet i ettertid) ja det har da saktens aldri skjedd før? ^^ jeg har vel sakt mitt i denne saken før, nå vil jeg se målinger og benchmarks Lenke til kommentar
MistaPi Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 (endret) Fysikk og grafikk må ikke blandes. Fysikkberegninger er det cpu (og eventuellt fysikkprosessorer) som er suverene på. 6267281[/snapback] Hvilket belegg har du for å si dette? Hva er det som gjør en PPU så suverent til fysikk beregninger i forhold til en GPU? Ihvertfall er det helt borti natta å si at en CPU er suveren på fysikk iforhold til en GPU. Endret 8. juni 2006 av MistaPi Lenke til kommentar
Solefald Skrevet 8. juni 2006 Del Skrevet 8. juni 2006 ingen som tenker på kva havoc løsninga koster for spill utviklerane? Ageia er gratis =) Lenke til kommentar
shawnee Skrevet 9. juni 2006 Del Skrevet 9. juni 2006 OK.. OK ...... Ja igjen OK Og disse prikkene .................... Har Ati 9800 Pro AIW og vil aldrig mere bruke Ati til noe somhelst. Har testet de fleste drivere og får problemer med lyd ( ac97 og creative ) + en lang liste med bugs og problemer som alle er løst etter lang feilsøking. Å løse problemene går greit, men det skulle ikke være nødvendig. Ikke alle er teknikkere. Har jobbet 3.5 år på Microsoft support og fikser det meste selv. Neste grafikkort til 5-7000 kr blir Nvidia no mather what. Lei av at ATI ikke kan lage drivere til noe som helst. Synes jeg ser alle problemene med dette oppsettet. ATI kan ikke lage drivere til et singelkort uten TV. Hvordan vil dette gå? Jo de vil lage maskinvaren og drite seg ut på programvaren. ( HALLO . DOBBEL HALLO. Dette har de gjordt flere ganger før ) Folk betaler penger og blir lurt. Mitt neste system blir AM2 Asus det største. AMD X2 5000 2 Gig 800 DDR 2 Separat TV kort Dual tuner Hauppauge WinTV PVR 500 MCE Nvidia G80 Når faenskapet kommer LOL Og Lian Li tower selføgelig http://www.microplex.no/product.aspx?pid=P...aplus&mcat=c433 ( syns den var litt søt ) Og tro meg det blir et lys helvete utenom like i denne kassa. Har foreløpig Sony G500 21" Monitor. ( kosta meg 1500 spenn og ikke F om jeg skal ha LCD. Venter heller på SED ) Og http://www.databutikken.com/no/default.php...Id=HIPTRM580BLU Lenke til kommentar
shawnee Skrevet 9. juni 2006 Del Skrevet 9. juni 2006 Oppgraderer straks pcn me ca 17 000 spenn. Og ATI får ingenting av meg. Lenke til kommentar
Ko_deZ Skrevet 9. juni 2006 Del Skrevet 9. juni 2006 For å få litt info om hva dagens GPUer kan brukes til, så søk på gpgpu (general purpose gpu). Grunnen til at de ble hetende GPU er fordi at de kan programmeres. Blandt annet matematiske beregninger vil kunne gå 20 ganger raskere på GPU enn på CPU. Prinsippet er enkelt. Lag en texture som inneholder alle tallene du skal regne på. Lag et filter som inneholder den matematiske formelen du skal kjøre på alle tallene, og kjør filteret på texturen. Les ut resultatet. Effekten av dette er dramatisk bedre parallellisering, og absurd raske utregninger. Man kan utmerket godt lage mange texturer og kjøre egne filtre på hver av dem, om man skal regne ut forskjellige ting. Skal man bare gjøre en utregning, så tjener man lite på det dog. Man får kjøpt super-computere idag med hundrevis av grafikk-kort for å gjøre slikt arbeid. Det er klart at dette også lar seg gjøre å bruke til fysikk. -Ko_deZ- Lenke til kommentar
Mompen Skrevet 9. juni 2006 Del Skrevet 9. juni 2006 Si at et av de kortene koster 4000 kroner stykket. 3 kort * 4000 kroner = 12000 kroner. Får kjøpt ganske grov pc for 12000, istedenfor 3 skjermkort.. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå