AmdTommy Skrevet 28. mars 2006 Del Skrevet 28. mars 2006 greit å ha en cpu som holder følge også da Lenke til kommentar
sphrenos Skrevet 28. mars 2006 Forfatter Del Skrevet 28. mars 2006 OK, har 19" LCD sånn at jeg kan ikke kjøre høyre en 1280X1024. Hva vist jeg kjøper med feks Gainward BLISS 7800 GT PCX 512 MB, vil jeg kunne dra noe nytte av 512 MB på det korte i SLI ? Lenke til kommentar
samye83 Skrevet 28. mars 2006 Del Skrevet 28. mars 2006 Nei, 7800gt 512 vil ikke funke sammen med 7800gt 256. Lenke til kommentar
sphrenos Skrevet 28. mars 2006 Forfatter Del Skrevet 28. mars 2006 Aha ja vel. Litt dumt at SLI ikke er mere fleksibel med hvordan kort man bruker. Lenke til kommentar
samye83 Skrevet 28. mars 2006 Del Skrevet 28. mars 2006 Men du kan fint sette 2x7800gt 512 i sli Da blir det mer ytelsesboost. Lenke til kommentar
MistaPi Skrevet 28. mars 2006 Del Skrevet 28. mars 2006 Nei den er veldig bra! , samma grafikk motor som HL2. 5824299[/snapback] Oblivion bruker Gamebryo og ikke Source. Optimaliserings guide for Oblivion: http://www.atomicmpc.com.au/article.asp?CIID=36222 Lenke til kommentar
sphrenos Skrevet 28. mars 2006 Forfatter Del Skrevet 28. mars 2006 Det som også hadde vært en ide var å feks selge 7800GT for rundt 2000kr et eller annet sted. (Har garanti på korte ennå + Strøken box osv.) Så kunne jeg ha kjøp 7900GTX kanskje det hadde vært bedre? Lenke til kommentar
sphrenos Skrevet 28. mars 2006 Forfatter Del Skrevet 28. mars 2006 Nei den er veldig bra! , samma grafikk motor som HL2. 5824299[/snapback] Oblivion bruker Gamebryo og ikke Source. Optimaliserings guide for Oblivion: http://www.atomicmpc.com.au/article.asp?CIID=36222 5824492[/snapback] Mulig det, men et eller annet av samme type grafikk som HL2 har den. Lenke til kommentar
samye83 Skrevet 28. mars 2006 Del Skrevet 28. mars 2006 7900gtx er ikke verdt penga, da kjøper du heller et x1900xt eller xtx. De koster nesten like mye for tida. med x19 kortene vil du kunne kjøre oblivion på høyere oppløsning med mindre frame tap. Lenke til kommentar
sphrenos Skrevet 28. mars 2006 Forfatter Del Skrevet 28. mars 2006 7900gtx er ikke verdt penga, da kjøper du heller et x1900xt eller xtx. De koster nesten like mye for tida. med x19 kortene vil du kunne kjøre oblivion på høyere oppløsning med mindre frame tap. 5825280[/snapback] Ok det kan bli et problem siden jeg har et Asus sli hovedkort? Lenke til kommentar
samye83 Skrevet 28. mars 2006 Del Skrevet 28. mars 2006 (endret) For brukt x19 selvom du har nvidia kort. Med mindre du vil benytte deg av crossfire? Hk'et ditt støtter x1900xt kort fult ut, men om du vil ta i bruk crossfire, må du nesten ha et hk med ati chipsett. Men det koster å kjøre 2xtoppkort. Om du vil kjøre sli eller crossfire er det mye bedre å få for kortene som er et eller to hakk dårligere. Endret 28. mars 2006 av samye83 Lenke til kommentar
MistaPi Skrevet 29. mars 2006 Del Skrevet 29. mars 2006 Mulig det, men et eller annet av samme type grafikk som HL2 har den. 5824517[/snapback] Den har nok noen teknikker til felles med HL2 og mange andre spill idag, som normal maping, men jeg vil ikke si at grafikken til Oblivion minner meg så mye om HL2. Anyway.. det ser nå ut som det er kun SM2.0 path som er i bruk i Oblivion for øyeblikket, PS2.0a for nVidia og PS2.0b for ATi kort. Bethesda har selv sagt at dem har brukt SM3.0 for ytelseforbedringer, så mulig dette er noe som kommer (blir enablet) etterhvert. Shader model 2.0 to 3.0 is the targeted range. For shader model 3.0 effects, we do take advantage of some looping and branching, but mostly we use it for performance increases. In 3.0 we are able to do all lighting in a single pass, as well as full lighting on blended objects. Lenke til kommentar
HKS Skrevet 29. mars 2006 Del Skrevet 29. mars 2006 Anyway.. det ser nå ut som det er kun SM2.0 path som er i bruk i Oblivion for øyeblikket, PS2.0a for nVidia og PS2.0b for ATi kort. Bethesda har selv sagt at dem har brukt SM3.0 for ytelseforbedringer, så mulig dette er noe som kommer (blir enablet) etterhvert. Shader model 2.0 to 3.0 is the targeted range. For shader model 3.0 effects, we do take advantage of some looping and branching, but mostly we use it for performance increases. In 3.0 we are able to do all lighting in a single pass, as well as full lighting on blended objects. 5830213[/snapback] Så det er noen som bruker ATi sin shader model 2.0b? Nå har ikke jeg satt meg inn i model 2.0b, men hva er det som skiller den fra 3.0? Og hvilke fordeler i ytelse gir det ATi sammenlinget med nVidia sin 2.0a? Lenke til kommentar
Ulf Isaksen Skrevet 29. mars 2006 Del Skrevet 29. mars 2006 Kan man koble sammen et Powercolor og Club3D 7800gt skjermkort i sli? De er jo dønn like Lenke til kommentar
Smirnoff Skrevet 29. mars 2006 Del Skrevet 29. mars 2006 (endret) Bethesda har selv sagt at dem har brukt SM3.0 for ytelseforbedringer, så mulig dette er noe som kommer (blir enablet) etterhvert. 5830213[/snapback] Jeg prøvde å enable SM3.0 i .ini filene, men da jeg gjorde det merket jeg ikke noen ytelsesøkning, men det er vel kanskje ikke det samme vi snakker om. Det hjelper kanskje ikke hvis det ikke er implementert enda. Endret 29. mars 2006 av Smirnoff Lenke til kommentar
MistaPi Skrevet 29. mars 2006 Del Skrevet 29. mars 2006 Så det er noen som bruker ATi sin shader model 2.0b? Til din store fortvilelse kan jeg tenke meg. Nå har ikke jeg satt meg inn i model 2.0b, men hva er det som skiller den fra 3.0? Og hvilke fordeler i ytelse gir det ATi sammenlinget med nVidia sin 2.0a? 5830624[/snapback] http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=8 Med Direct3D10 slipper vi alle disse DX caps’ene, ikke bare mtp forskjellige shader modeler, men hele feature set’et. Lenke til kommentar
HKS Skrevet 29. mars 2006 Del Skrevet 29. mars 2006 Raptor,29/03-2006 : 10:41]Så det er noen som bruker ATi sin shader model 2.0b? Til din store fortvilelse kan jeg tenke meg. 5831161[/snapback] Ha ha ha... Hadde jo helst sett at de brukte shader model 3.0 som støttes av begge to... Det er vel også du enig i? Lenke til kommentar
MistaPi Skrevet 29. mars 2006 Del Skrevet 29. mars 2006 Kan ikke nekte på det nei. Forhåpentligvis vil det ikke drøye alt for lenge før det kommer. Blir spennede å se hvor stor ytelse forbedring det vil gi. Lenke til kommentar
HKS Skrevet 29. mars 2006 Del Skrevet 29. mars 2006 Kan ikke nekte på det nei. Forhåpentligvis vil det ikke drøye alt for lenge før det kommer. Blir spennede å se hvor stor ytelse forbedring det vil gi. 5831584[/snapback] Det som jeg ser som mest spennende er å se hvor mye mer effektiv ATi sin nye shader model 3.0 arkitektur er sammenlignet nVidia sin. Shader model 2.0a er vel ganske lik 2.0b Lenke til kommentar
ExcaliBuR Skrevet 29. mars 2006 Del Skrevet 29. mars 2006 Synes 2.0a har mer sammenlignet 3.0 enn med 2.0b. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå