int20h Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 Henter inn forsterkninger fra et student-prosjekt. Les mer Lenke til kommentar
Intern Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 GPU, minne, FPU, Cell...? Spørs om kortene blir noe kortere med årene... Lenke til kommentar
Megnus Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 Gleder meg sykt til dette blir realitet da. Lenke til kommentar
Kenny Bones Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 Ok, hva er egentlig dette for noe? Er det slik at det er null "virtuelle" metoder for å simulere polygoner? Altså, med dette så vil ikke Virtual Displacement Mapping f. eks være nødvendig? Og at det da vil bli Displacement Mapping istedet? Slik som brukes av Pixar bl. a og animerte CG-filmer? Bare i realtime? Mange spørsmål her Lenke til kommentar
Fjonisen Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 Gleder meg sykt til dette blir realitet da. Jeg også.. leste om det på Wikipedia. Sjekk her da!! Lenke til kommentar
Jokko88 Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 Wow det ser sykt bra ut! Vi nærmer oss helt klart fotorealisme! Lenke til kommentar
Kenny Bones Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 (endret) Ah, det er snakk om refleksjoner altså? Burde kanskje stått i artikkelen? Edit: Forøvrig er dette også ganske imponerende: Endret 26. mai 2008 av Kenny Bones Lenke til kommentar
Brusfantomet Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 Raytracing passer vel inn i CUDA opplegget til Nvidia vile jeg tro. Intel har jo frontet raytracing ganske lange nå og har fått quake 3 til å kjøre på en qx9770 i 1280x 800 med 70 til 80 fps mener jeg å huske. Raytracing vil vell først bli brukt til refleksjoner og slkt skull man tro. Ville sjekket u den wikipedia artikelen, står mye interesan der. Lenke til kommentar
S-r-ex Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 (endret) Ok, hva er egentlig dette for noe? Er det slik at det er null "virtuelle" metoder for å simulere polygoner? Altså, med dette så vil ikke Virtual Displacement Mapping f. eks være nødvendig? Og at det da vil bli Displacement Mapping istedet? Slik som brukes av Pixar bl. a og animerte CG-filmer? Bare i realtime? Mange spørsmål her Raytracing er som navnet sier. Det er vondt å forklare på norsk med alt teknobabbelet, men du kan lese wikipedia-rartikkelen her: http://en.wikipedia.org/wiki/Ray_tracing_%28graphics%29 Men nei, raytracing er ikke realtime (enda?), siden som det står i artikkelen er raytracing et helvete for maskinvaren, og et VGA-bilde med raytracing (640x480) kan ta noen sekunder å rendre med en rimelig grei maskin (brutterns 2.4GHz P4 X1950 Rdeon Sapphire-somthing). Tok meg over fire minutter å rendre et 720x1280 på brutterns maskin i Maya. Endret 26. mai 2008 av S-r-ex Lenke til kommentar
mungo Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 (endret) Ray tracing. Det er lov å sjekke litt selv også... Hvorfor kan de ikke bruke Cell-prosessoren som GPU? Endret 26. mai 2008 av mungo Lenke til kommentar
Kenny Bones Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 (endret) Ah, gjør det litt mer forståelig. Ok, så hvordan fungerer da tradisjonell rendering? Det må jo være noe lignende som dette vel? Bare at dette tar for seg hver eneste pixel? Shit, blir litt matematisk osv dette Men svært interessant likevel! Hvordan vil dette påvirke pixel shaders? Edit: Tror denne artikkelen kan kaste litt "lys" over emnet http://www.pcper.com/article.php?aid=530 Endret 26. mai 2008 av Kenny Bones Lenke til kommentar
kilik Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 Ved PS3-lanseringen i 2006 ble det vist fram real-time raytracing på PS3: Tror ingen spill har benyttet seg av det ennå. Lenke til kommentar
tjomi Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 Ved PS3-lanseringen i 2006 ble det vist fram real-time raytracing på PS3: Tror ingen spill har benyttet seg av det ennå. De brukte nå 3 ps3 for å få rendret den scenen. pluss at det hakket. Lenke til kommentar
Gjest Slettet-ORYwP89mk3 Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 (endret) Her er et lite ray tracing prosjekt for de interesserte: http://igad.nhtv.nl/~bikker/ Gå på downloads og last ned "Arauna demo & source package (originally released on December 17, 2007)", pakk ut og kjør arauna.exe. Hvis man ønsker en annen oppløsning åpner man filen scene.txt og forandrer på disse: scrwidth 800 scrheight 600 til f.eks.: scrwidth 1024 scrheight 768 eller: scrwidth 1920 scrheight 1200 PS: Alt på eget ansvar!!! Glemte å fortelle at arauna ray tracing bruker cpu'en til jobben og ikke gpu. Endret 26. mai 2008 av Slettet-ORYwP89mk3 Lenke til kommentar
ATWindsor Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 Ray tracing. Det er lov å sjekke litt selv også... Hvorfor kan de ikke bruke Cell-prosessoren som GPU? Det lurer jeg på også, om det virkelig er slik artikkelen indikerer at det er plausibelt med raytracing om man har en mer eller mindre normal cell-CPU, noe jeg mistenker det ikke er. AtW Lenke til kommentar
Theo343 Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 (endret) En 45nm Cell bruker ca. 80w, så å bruke den til en del grafikkrelaterte ting hadde vært meget lurt med tanke på kapasiteten den innehar. Man kunne laget et PCIe kort som fungerte som støttekort til bla. et grafikkort og maskinen generellt på mange områder. Dette støttekortet kunne bestått av 2-3 parallelliserte Cell 45nm og kjørt på 16x PCIe el. Det kunne tatt seg av alt av fysikk, raytracing, rendering, utregninger, simulasjoner mm og dermed ikke vært begrenset til bare spill. Det ville ikke krevd mer strøm enn dagens toppkort. Og man kunne selvf. iverksatt folding@home på "TriCell" kortet når man ikke brukte maskinen. PS3 kjører i dag folding@home med enorm kapasitet og "bare" 1stk Cell. Endret 26. mai 2008 av Theo343 Lenke til kommentar
blackbrrd Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 En 45nm Cell bruker ca. 80w, så å bruke den til en del grafikkrelaterte ting hadde vært meget lurt med tanke på kapasiteten den innehar. Man kunne laget et PCIe kort som fungerte som støttekort til bla. et grafikkort og maskinen generellt på mange områder. Dette støttekortet kunne bestått av 2-3 parallelliserte Cell 45nm og kjørt på 16x PCIe el. Det kunne tatt seg av alt av fysikk, raytracing, rendering, utregninger, simulasjoner mm og dermed ikke vært begrenset til bare spill. Det ville ikke krevd mer strøm enn dagens toppkort. Og man kunne selvf. iverksatt folding@home på "TriCell" kortet når man ikke brukte maskinen. PS3 kjører i dag folding@home med enorm kapasitet og "bare" 1stk Cell. Cell prosessoren var i utgangspunktet tenkt brukt som cpu/gpu på PS3, men det viste seg at den ikke var kraftig nok. De måtte derfor bruke et skjermkort for grafikken, mens cell prosessoren kun blir brukt som cpu. Lenke til kommentar
jonnor Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 (endret) En 45nm Cell bruker ca. 80w, så å bruke den til en del grafikkrelaterte ting hadde vært meget lurt med tanke på kapasiteten den innehar. Man kunne laget et PCIe kort som fungerte som støttekort til bla. et grafikkort og maskinen generellt på mange områder. Dette støttekortet kunne bestått av 2-3 parallelliserte Cell 45nm og kjørt på 16x PCIe el. Det kunne tatt seg av alt av fysikk, raytracing, rendering, utregninger, simulasjoner mm og dermed ikke vært begrenset til bare spill. Det ville ikke krevd mer strøm enn dagens toppkort. Men hva får deg til å tro at den har noe i nærheten av samme ytelse som dagens toppkort? (EDIT: på raster-basert grafikk altså) Det er klart at en slik prosessor har store fordeler med at den kan brukes til andre ting enn grafikk, men det kan man med nvidiaskjerkort via CUDA også. Endret 26. mai 2008 av NorthWave Lenke til kommentar
Blåbær Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 Det med ray tracing tror jeg det vil ta mange år før det kommer på spill, har jo mine erfaringer med hvor lang tid det tar fra diverse cad programmer. Foreløpig så støtter ikke direct x ray tracing heller http://www.gametrailers.com/player/usermovies/182176.html http://gametomorrow.com/blog/index.php/200...wer-at-gdc-2007 Les kommentarene, sykt Lenke til kommentar
Thorsen Skrevet 26. mai 2008 Del Skrevet 26. mai 2008 Det er vel ennå langt inn i fremtiden, men det er vel lite tvil om at vi om et par tre år vil som i dag se tilbake og tenke "Så "dårlig" grafikken var før" Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå