m0g1e Skrevet 8. januar 2007 Del Skrevet 8. januar 2007 (endret) Heisann, Trenger tips til et prosjekt jeg har kastet meg ut i som tar for seg fremtidsrettet teknologi. Jeg skal nå til å begynne på skjermkortdelen, og har litt vanskelig med å finne stoff til hva som er verdt å vite. Hva er nettopp nytt, og hvilke teknologier(eller spesifike skjermkort) vil komme og er under utvikling idag? Har ikke kommet stort lengere enn til DX10... Uendelig takknemlig for alt som kan komme! Endret 8. januar 2007 av nollie Lenke til kommentar
AKIRAx77 Skrevet 8. januar 2007 Del Skrevet 8. januar 2007 Ting som jeg har fått med meg er at Prosessoren på selve skjermkortet blir mer og mer generell. Den er ikke spesiallaget til å gjøre EN ting...men er bare en "motor" som kan i teorien utnyttes til å gjøre hva som helst på en PC. Det er ett prosjekt som har unyttet GPUen på ett ATI skjermkort for å kjøre "folding@home" programmet via skjermkortet isteden for CPUen. Neste generasjon skjermkort vil ha flere generelle kjerner isteden for spesiallaget kjerner som bare gjør en ting. Eksemplet jeg så er at feks når en scene er tekstur tung og lite geometri så er store deler av en kjerne ubrukt....og omvendt når det er masse geometri men liten tekstur detaljer. Ved å generalisere prosessor kjernene så kan den gitte oppgaven styre hva de bør brukes til. Men dette er ting som kommer nå...og ikke er så veldig langt inn i fremtiden. Så ta de tankene og strekk dem 5 år inn i fremtiden. Hvis skjermkort prosessoren kan gjøre jobben til en vanlig prosessor...hvorfor kaller man noe ett skjermort og noe annet ett hovedkort da? AKIRA Lenke til kommentar
Peter Skrevet 8. januar 2007 Del Skrevet 8. januar 2007 Dette høres jo egentlig litt bakvendt ut. Skal vi plutselig få vanlig CPU på skjermkortene istedenfor GPU da? Å ha kjerner som er spesielt rettet mot visse arbeidsoppgaver gjør jo at disse kjernene kan optimaliseres for nettopp disse oppgavene og dermed utføre disse raskere enn mer generelle kjerner? Lenke til kommentar
AKIRAx77 Skrevet 8. januar 2007 Del Skrevet 8. januar 2007 Det var argumentet når resursene var begrenset. Nå er GPU prosessorene like raske eller på noen områder bedre enn CPUene og kan i gitte situasjoner gå på tomgang. Når du sitter i windows og bare surfer eller ser video bruker du knapt noe av den i det hele tatt. Tenk om det overskuddet kunne brukes til å enkode video, laste ned bittorenst..osv. Dette er bare mulig hvis kjernene kan akseseres av standard protokoller og ikke være spesial laget for EN oppgave. Ja, glemte jeg i første innlegg. Det er jo også de som snakker om å inkludere fysikk prosessorer på skjermkort. Men igjen så blir jo dette poenget litt utdatert da fysikk delen kan bare være en "prosess" som kjøres på disse kjernene. Så er spm, hva om 3D grafikk lager lyd. Når to sverd treffes i ett spill så spilles det av en predefinert lyd som spill utvikleren har definert. hva om lyden blir skapt av to 3D objekter og man kan bruke "skjermkortet" til å regne ut dette også...alt dette er muligheter om man tenker på skjermkortet mer som en vanlig prosessor enn dedikert 3D render. AKIRA AKIRA Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå