Tfosheim Skrevet 6. oktober 2004 Del Skrevet 6. oktober 2004 Utvikler TurboCache mot HyperMemory NVIDIA er allerede i samtaler med produsenter og utviklere om svaret på ATIs HyperMemory-teknologi, som lar grafikkort bruke av systemminnet. NVIDIA vil gjøre det samme, men vil ikke si det offentlig. Les artikkelen her Lenke til kommentar
tbend Skrevet 6. oktober 2004 Del Skrevet 6. oktober 2004 Kan man ikke mekke det på de storkortene åsså.... SÅ blir det jo ENDA litt bedre ytelse! Lenke til kommentar
Axentrix Skrevet 6. oktober 2004 Del Skrevet 6. oktober 2004 Kan man ikke mekke det på de storkortene åsså.... SÅ blir det jo ENDA litt bedre ytelse! eller ha ddr/ddr2 rom-slots på kortene, så man kan utvide litt hvis man vil *slenge i 2 Gb i X800xt pe og ta en runde doom 3* Lenke til kommentar
Staalkontroll Skrevet 6. oktober 2004 Del Skrevet 6. oktober 2004 Kan man ikke mekke det på de storkortene åsså.... SÅ blir det jo ENDA litt bedre ytelse! eller ha ddr/ddr2 rom-slots på kortene, så man kan utvide litt hvis man vil *slenge i 2 Gb i X800xt pe og ta en runde doom 3* Flott drøm Lenke til kommentar
Knick Knack Skrevet 6. oktober 2004 Del Skrevet 6. oktober 2004 Dermed skulle det være klart at systemminnet kun kan brukes som et slags buffer for harddisklesing, og da antakelig bare i de litt rimeligere kortene. Integrerte grafikkløsninger har for eksempel lenge brukt systemminne til grafikk, og disse løsningene er ikke akkurat kjent for noen topp ytelse, selv om dette naturlig nok også skyldes andre forhold enn minnebåndbredden. Tror dere bommer med god margin her. On-board minnet på grafikk kort vil i fremtiden ha funksjon som en litt stor adresserbar cache. Størrelse og hastighet vil selvsagt variere med pris på kortet. Grunnen til at det er mye å hente på dette er at det til enhver tid er svært mange teksturer som ikke er i bruk mens en spiller et spill. Noen er ikke i bruk fordi objektene ikke befinner seg i det området spilleren er og andre er ikke i bruk fordi avstanden er stor og GPU benytter derfor en tekstur med langt lavere oppløsning. Om spilleren kommer inn i et område hvor teksturene som ikke er i on-board minnet behøves så lastes de opp. Dette kan med en rimelig enkel algoritme gjøres i "god tid" _før_ teksturen behøves. Dermed "ser" GPU til enhver tid den båndbredden som den har mot on-board minnet, mens den totale størrelsen på alle teksturene kan være langt større enn on-board minnet. Kravet som stilles til størrelsen på on-board minnet blir nå summen av alle teksturene som er synlige samt et lite ekstra buffer slik at en har mulighet til å laste opp teksturer litt i forkant. En må også påregne noe slack siden algoritmen ikke kan være 100% perfekt. Dette er likevel langt mindre krav enn det som stilles til dagens grafikk systemer. Husk også at 4GB/s, som PCIe x16 leverer, er nok til å bytte ut alle data på et kort med 256MB RAM hele 16 ganger per sekund. Det er foreløpig overkill. Lenke til kommentar
Codename_Paragon Skrevet 6. oktober 2004 Del Skrevet 6. oktober 2004 Teksturfiler kan være ganske store, spesielt for terreng i en virtuell verden. Med flere levels of detail (LOD), blir det da enda større. For meg virker det som en naturlig utvikling at fremtidige grafikk-kort vil ha egne tilkoblinger til harddisk(er). Legg til stadig nye finesser på GPUene (stadig mer programmerbare) og klart uttalte mål om å legge inn fysikkmotoren for spill rett på grafikk-kortet, virker behovet for diskplass stadig klarere. Med denne utviklingen vil CPUen være et lite vedheng som tar seg av enkel MMI og koblinger til mus, joystick, ratt, pedaler osv. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå