Imsochobo Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Det spørs no og hvor god støtte dette får fra spillutviklere. Å utvikle for å benytte denne teknologien krever ekstra arbeid, kompetanse tid og ressurser for å oppnå forbedringer som kun vil fungere med noen grafikkort (i de første inkarnasjonene, G100, vil neppe alle Nvidia grafikkort vil få det og de som får det blir sansynligvis øvre prissegment, i tillegg til at AMD kort ikke har dette). Løsningne som kommer med dette kommer nok til å følge trenden med multi-GPU vi ser nå, ved at man har flere GPUer og en PPU (noe som vil kreve eget minne til PPU). Dette vil medføre økning i pris og effektforbruk, samt ta opp plass. Sannsynligvis vil dette ta like lang tid å bli godt støttet i spill som det to for multi-GPU løsninger ble godt støttet(noe som de begynner å bli nå, men da bare for 2 GPUer). Derfor har AMD god tid til å svare. De har og gode forutsetninger for å komnkurere her, ettersom AMD innehar mer kompetanse på multi-GPU og finere produksjonsteknikk enn Nvidia. Dette betyre at de lettere kan lage løsninger med grafikkort som innheholder flere GPUer + 1 PPU. Oppsumert tror jeg det tar en stund før dette får effekt og at det ikke er en stor trussel for AMD Du glemmer at oppsummeringen din bommer totalt på det faktum at fysikk løsninger allerede er svært utbredt 140titler som bruker Ageia sin løsning alene, + de som bruker havoc ( Hl2 blant annet) Så trusselen for AMD er høyst reel Tja, UT3 bruker physics, og ja, jeg kjører det uten ett tåpelig aegia kort. amd gjorde rett og slett om ett x1600 kort for ei god stund sia til ett fysikk kort, så skuta er ikke kjørt, og med tanke på at crysis ikke bruker verken aegia eller havoc, så trur jeg det ikke skjer noe på lang tid, 140 titler.. hmm, det er nå da sånn at 20 er enten gratis spill, eller spill som ikke har stor nytte av disse korta, men en del har det, cellshock trenger dissa korta, men hvem gadd å kjøpe det, svært få, resultat, ingen gadd å programere til dissa korta. så ja, nvidia kan ikke trenge dette på noen som helst spill utvikler tror jeg, og amd/ati har en stor markeds andel innen skjermkort noe som resulterer med at nvidia ikke vil få store forsprang, men egen fysikk prossesor sier jeg ikke nei takk til, bare den er på samme PCB. implimentert i gpu kansje ? =).bare begge parter bruker dette, det skjer ikke store sakene før nvidia og amd bruker teknologien og den er høyest vanlig! ser ikke noe spesielt med aegia forann havoc heller da, annet enn aegia ikke bruker så sykt mye cpu Lenke til kommentar
Unlimited LTD Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 Som nevnt tidligere i tråden så ville "ingen" kjøpe kortene fordi "ingen" spill støttet dem (altså, ga bedre ytelse). Og siden "ingen" hadde slike kort var det ikke vits for utviklerne å utvikle for den platformen. Men nå som halvparten av målgruppen plutselig har et slikt kort så blir det jo mye mer gunstig å utvikle for fysikkprosessorer. Lenke til kommentar
MistaPi Skrevet 5. februar 2008 Del Skrevet 5. februar 2008 (endret) AMD (eller ATI) har jo en god stund hold på med å forske på fysikk emulert på GPUen, så jeg kan tenke med de speeder opp det prosjektet for å kjempe mot Nvidia. Teknisk sett er dog en dedifkert fysikk-chip en bye bedre teknisk løsning, så vi får se hvordan det spiller seg ut. Jeg ser ikke helt grunn til at dem skal legge til en egen fysikk-kjerne på kortet når en GPU er allerede en FP monster. nVidia er vel heller først og fremst interessert i program utviklerene og middleware programvaren og bruke dette mot GPU. Hvis det blir noe hardware endringer utav dette rettes det nok heller mot GPU/IGP enn en egen dedikert kjerne. Jeg vil heller tro det er en bedre teknisk løsning å heller bruke budsjettet på en større GPU og heller load balansere fysikk og grafikk operasjoner i GPU. Endret 5. februar 2008 av MistaPi Lenke til kommentar
mad_arab Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 AMD (eller ATI) har jo en god stund hold på med å forske på fysikk emulert på GPUen, så jeg kan tenke med de speeder opp det prosjektet for å kjempe mot Nvidia. Teknisk sett er dog en dedifkert fysikk-chip en bye bedre teknisk løsning, så vi får se hvordan det spiller seg ut. Jeg ser ikke helt grunn til at dem skal legge til en egen fysikk-kjerne på kortet når en GPU er allerede en FP monster. nVidia er vel heller først og fremst interessert i program utviklerene og middleware programvaren og bruke dette mot GPU. Hvis det blir noe hardware endringer utav dette rettes det nok heller mot GPU/IGP enn en egen dedikert kjerne. Jeg vil heller tro det er en bedre teknisk løsning å heller bruke budsjettet på en større GPU og heller load balansere fysikk og grafikk operasjoner i GPU. Nettopp. Husk hvor få som kjøpte dedikerte 3d-kort da det kom. Og den gangen var alternativet ingen 3d akselerasjon. Nå er alternativet til PhysX kortet bittelitte grann svakere ytelse, og bare i noen få spill. Det var dømt til å gå i dass, og det gjorde det. Det hadde ingen sjanse til å gjøre suksess overhodet som tilleggskort. Jeg liker ikke å hovere... men hvis man har et snev av logisk sans så burde man skjønt dette den gangen det ble lansert. Men her på forumet, og andre steder ble det fremstilt som at Ola Nordmann ville løpe ut å kjøpe et PhysX tilleggskort . Det som har skjedd nå er det beste som kunne skje, alternativet ville vært at teknologien gikk i glemmeboken, for deretter å bli funnet opp på nytt om et par år når behovet blir prekært. Nå derimot, får vi en videre utvikling og integrering, som er den beste løsningen. Tilleggskort var aldri veien å gå. Lenke til kommentar
Dipso Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 Haha, jeg SA DET! Allerede når physX ble lansert sa jeg at dette kom til å bli integrert på skjermkort etter hvert. Lenke til kommentar
biopsin Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 uh ikke nok med at toppkortene er über lange fra før av, med dette integrert blir de vel snart oppimot en halv meter.. Lenke til kommentar
GeirGrusom Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 Endelig! Jeg håpet på dette ganske lenge, mye fordi jeg har drevet mye med OpenGL utvikling med nVidia og har akkurat begynt med Ageia sin PhysX SDK som er helt genialt laget! Med en gang jeg så PhysX kortet tenkte jeg "Genialt, men burde ikke dette vært integrert på skjermkortet, siden 3D grafikken nødvendigvis må dele geometri med skjermkortet?" Og nå ser det ut til at jeg får vilja mi Lenke til kommentar
OnetroM Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 Jeg tror ikke vi ser en chip på skjermkort fremover. nVidia har vel heller kjøpt teknologien for å implementere deler av den direkte i GPU. Jeg vil tro det er mest hensiktsmessig. Det kan også har vært strategisk oppkjøp siden AMD vel har snust på selskapet. AMD har vel litt mindre investeringsbudsjett i år.. Lenke til kommentar
G Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 Som forventet etter at nVidia har "siklet" over Ageia de siste to årene. Synd for AMD da, som har gjort akkurat det samme... :/ Jeg fatter ikke helt hva AMD driver med for tiden jeg, virker jo ikke som om de fokuserer helt hjertet på verken prosessor eller skjermkortmarkedet lengre. Virker som de har tenkt til å plassere seg selv på budsjett og den lavere middelklassen innenfor begge felt? Oppkjøpet er vel ikke fullendt enda? AMD gjør kanskje smart å holde kortene tettere inntil brystet nå, dersom de har noe i skjorteermet. Så kan de heller lekke ting rett før neste lansering. Det er mye uvisse faktorer oppi dette. Lenke til kommentar
Unlimited LTD Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 Hva mener du? At AMD har noe liknende? Eller noe som kan kontre oppkjøpet? Og hva har AMD med oppkjøpet å gjøre? Lenke til kommentar
OnetroM Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 Hva mener du? At AMD har noe liknende? Eller noe som kan kontre oppkjøpet?Og hva har AMD med oppkjøpet å gjøre? AMD/ATI har etter sigende sett på oppkjøp av dette selskapet tidligere. Hvorvidt det var en reell sak eller kun rykter aner jeg ikke. Eneste vi vet er at AMD's oppkjøp av ATI så langt ikke har kastet nevneveredig av seg økonomisk og AMD måtte avskrive enorme beløp ifjor. Oppkjøpsevnen ble noe betraktelig svekket og kan kanskje være noe av grunnen til at Agiea ikke havnet med AMD hender. Lenke til kommentar
Andrull Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 Synes spillutviklerene like godt kunne konsentrert seg om å utnytte dagens prosessorer. Det hjelper jo ikke stor å avlaste prosessoren når den ikke brukes 50% engang. Høyeste prosessorbelastningne jeg hittil har sett var i Crysis sin editor, der 73% av prosessoren ble tatt i bruk. For all del, dedikert maskinvare er vel og bra det, og jeg håper vi får dette, men håper ivhertfall spillutviklerene først kan konsentrere seg om å utnytte det vi har til rådighet. Lenke til kommentar
jonnor Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 Men nå som halvparten av målgruppen plutselig har et slikt kort så blir det jo mye mer gunstig å utvikle for fysikkprosessorer. Dersom nVidia integrerer physX hardware på kortene sine, vil det ta minst 1 år eller 2 før disse produktene kommer på banen. Og det vil ta like lang tid før disse kortene blir utbredt blant folk. Så det er nok noen år enda til vi vil se den store økningen i programmering for physX hardware. Jeg vet ikke helt om jeg synes dette er veien å gå heller. Lenke til kommentar
RamGuy Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 Men nå som halvparten av målgruppen plutselig har et slikt kort så blir det jo mye mer gunstig å utvikle for fysikkprosessorer. Dersom nVidia integrerer physX hardware på kortene sine, vil det ta minst 1 år eller 2 før disse produktene kommer på banen. Og det vil ta like lang tid før disse kortene blir utbredt blant folk. Så det er nok noen år enda til vi vil se den store økningen i programmering for physX hardware. Jeg vet ikke helt om jeg synes dette er veien å gå heller. Hvilken annen "vei" hadde vært bedre da? Lenke til kommentar
Andrull Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 Utnytte dagens prosessorer bedre? (se posten min like ovenfor) Lenke til kommentar
jonnor Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 Men nå som halvparten av målgruppen plutselig har et slikt kort så blir det jo mye mer gunstig å utvikle for fysikkprosessorer. Dersom nVidia integrerer physX hardware på kortene sine, vil det ta minst 1 år eller 2 før disse produktene kommer på banen. Og det vil ta like lang tid før disse kortene blir utbredt blant folk. Så det er nok noen år enda til vi vil se den store økningen i programmering for physX hardware. Jeg vet ikke helt om jeg synes dette er veien å gå heller. Hvilken annen "vei" hadde vært bedre da? Det beste ville være dersom vi fikk en åpen standard for lavnivå operasjoner knyttet til fysikk slik at alle kunne lage PPU'er etter disse spesifikasjonene. Et slags openGL til fysikk altså. Lenke til kommentar
HKS Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 (endret) Dersom nVidia integrerer physX hardware på kortene sine, vil det ta minst 1 år eller 2 før disse produktene kommer på banen. Det trenger de ikke å gjøre. GPU'er er allerede meget godt egnet til å gjøre fysikk-beregninger. De trenger strengt talt bare å forandre hardware interfacet i driveren fra å kjøre på PhysX kort til å kjøre på GPU (samme måte som CUDA fungerer) Edit: Etterhvert kommer vi også til å se at AGEIA sitt API for fysikk blir en del av nVidia sine utviklingsverktøy samt TWIMTBP (The Way its Meant to be Played) Endret 6. februar 2008 av [GDI]Raptor Lenke til kommentar
jonnor Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 Det var derfor jeg skrev "Dersom nVidia integrerer physX hardware på kortene sine". Det later til at de fleste her tar det for gitt at det er det som skal skje, men det gjør ikke jeg. Vi får ihvertfall håpe at det dukker opp noen wrappere/abstaction layers som gjør det mulig å skrive en fysikkmotor som er helt uavhengig av hardware-løsninger. Lenke til kommentar
DarkSlayer Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 Hmm ... hva skal man synes av dette... Aegis har fått mye pes egentlig ut fra hva jeg har lest. Spill har ikke hatt noen særlig ytelsesforbedring, dårlig dekning etc etc. Skjermkort har jo lenge vært enveiskjørt sak. Man bare pøser ut 3d-modeller, textures, og shader kode som kortene skal dille med. Stapper man fysikk på et skjermkort så må du sende med fysikkparametere plutselig, og så må du jo plutselig kjøre tilbake data av typen resultat av fysikken. Et pcie 16x kort skulle vel takle 4GB/s begge veier så det er vel ikke det store problemet. Fysikk er så mangt... Kollisjonsdeteksjon er en vital part av denne fysikken. Normalt vil man jo lage en paralell 3d-verden med alle modeller som skal ha fysikk. Men disse modellene blir ikke visualisert, men er ofte sterkt forenklede modeller av de som vises på skjermen. Om skjermkortet kan håndtere kollisjondeteksjon i hardware, gjerne på komplekse modeller, så kan vi kanskje snakke om fordeler her. Kanskje snakke om besparelser i å enten lage denne 3d fysikkverdenen, eller kode for det. Men ... spill henger etter uansett. Med unntak av duke nukem ... 10år i produksjon?? så har et spill 3år på seg fra man starter til man leverer. Det er begrenset med penger. Man kan si mye om grafikk på spill i dag, men de fleste klarer ikke å utnytte moderne muligheter ... og det ser ikke så bra ut. En av grunnene er at man har begrenset med tid og penger på å lage spill. Grafikk stikker allerede av med 90% av et budsjett. WOW har jo omtrent bevist at grafikk ikke trenger å være moderne for å bli bra. Eh ... litt rotete post... Poenget mitt er vel kanskje at dette steget egentlig ikke betyr jack shit. Det tar tid å lage detaljert grafikk. Det er faktisk grisedyrt. Og det har vel ikke kommet noen kostnadsreduksjonerende ny teknologi på den fronten??? Så dette betyr fint lite tipper jeg. Om man bedriver fysikk i kode eller på hardware koster det samme å produsere tipper jeg. Synd for amd kanskje ... men tror ikke de er spesielt lei seg, bortsett fra at Nvidia har fått noen ekstra skarpe huer i flokken sin. Lenke til kommentar
RamGuy Skrevet 6. februar 2008 Del Skrevet 6. februar 2008 WOW har jo omtrent bevist at grafikk ikke trenger å være moderne for å bli bra. Uff ikke nevn det engang. Har syntes at grafikken i WoW har vært dårlig fra deg en jeg Noe av det som irriterte meg mest fra dag 1. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå