Gå til innhold

spikeren i kisten for nvidia?


Anbefalte innlegg

Jo og atter jo.

Prøv å søk eller i det minste klikk på linken. Far Cry kjører IKKE DX9.0c men det kjører PS3.0

Jeg har hatt denne diskusjonen med andre før, hvor de til slutt har måttet gi seg, at PS3.0 ikke kommer før DX9.0c er bare tull, det var et rykte som svirret rundt for noen måneder siden og har brent seg inn i hjernen som fakta til de som ikke holder seg spesielt oppdatert på teknologifronten.

 

PS3.0 har ikke ekstra effekter, har ikke nye kommandoer og ser i praksis helt lik ut som PS2.0, MEN det er MYE mer effektivt og ryddig enn PS2.0. Du kan nå kode 200 linjer med kode for noe som hadde krevd 20 000 linjer kode før, derfor kan man også ha flere effekter på skjermen samtidig uten å knekke grafikkortet.

NVIDIA’s GeForce 6800-series announced yesterday and derivative graphics processors have support for Pixel Shaders and Vertex Shaders 3.0 functionality that enhance the feature-set of the current DirectX X 9.0 version, however, to properly expose the capability, a new version of Microsoft’s graphics API is required.

 

“The drivers are enabled with Shader Model 3.0, but if you do not have DirectX 9.0c installed the caps will not be activated,” an NVIDIA spokesman told X-bit labs.

 

http://www.xbitlabs.com/news/video/display...0415182158.html

Lenke til kommentar
Videoannonse
Annonse
Nå bruker jo Far Cry som allerede har kommet ut PS3.0 fullt ut da.
We don?t use PS3.0 everywhere. The general rule is to use as lower shader version as possible. So PS3.0 could be used only in several critical places where it gives performance boost.
Endret av MistaPi
Lenke til kommentar

Dårlig formulering MistaPi, det jeg mente var at Far Cry bruker den faktiske versjonen av PS3.0 og ikke noen halveis mellomting. Som jeg har sakt tidligere er hele poenget med 3.0 at det skal gå raskere, derfor er det jo ingen grunn å bruke det på steder som er lite grafikkort krevende. ;)

Lenke til kommentar

Spikeren på kista for Nvidia er vel litt tidelig? Men hviss ikke nvidia skjerper seg så vil det bli problemer på sikt. Noen som husker gammle gode dager? 3DFX var kongen på haugen, men satset alt på ytelse og ikke på grafikk kvalitet? Men nvidia satset på kvalitet, og hastigheten kom etterhvert, 3DFX gjikk til helvete, og nvidia kjøpte opp restene. Noen som ser samme mønster? Nvidia satser på ytelse, og har "dårlig" ytelse med antiliasing og anisotropisk filter skrudd på. ATI derimot klarer seg derimot mye bedre. Men det er veldig sunt for konkuransen, i dag er ATI og Nvidia ganske jevne konkurenter, og begge har nok forholdvis god økonomi (tipper her), har ikke noe imot noen av produsentene, men pr.idag vil jeg påstå at ATI ligger forran nvidia på grafikk kort. Og nvidia må skjerpe seg, ellers kan det gå imot kista. :hmm:

Lenke til kommentar
Fordi et spill som er i butikkene benytter seg av det?

Selv du hadde jo quoted en eller annen "official" som sa det.

Far Cry har ikke noen SM3 shadere for øyeblikket... Det de har sagt er at de kommer kanskje til å skifte ut et par shadere der koden vil bli kraftig redusert i forhold til tidligere. Poenget er uansett at SM3 inneholder mest forbedringer til utviklere og mindre for forbrukere... derfor er det ikke sikkert det går så mye raskere, og vil dermed bare skape ekstra arbeid for utviklerene som nå må lage shaderen for andre gang.

 

Det er også fakta at SM3 ikke kan brukes før DX9c kommer ut i løpet av sommeren... DX9b har rett og slett ikke støtte for dette, og da er det helt irrellevant om noen spill i det hele tatt har implementert en eneste SM3 shader.

 

Far Cry har støtte for SM3 i motoren, men det betyr ikke at de kommer til å bruke det i spillet eller å oppgradere gjennom patcher.

Lenke til kommentar

Pixel och Vertex Shader 3.0 har "funnits" i DirectX 9.0 redan sedan starten, trots att ingen hårdvara haft stöd för specifikationerna. DirectX 9.0c som släpps inom kort kommer att exponera de nya korten (och nya funktioner i de gamla korten) fullt ut för första gången. För nVidias del betyder detta att deras stöd för Shader Model 3.0 kommer att bli synligt. Vi tar därför en närmare titt på vad Shader Model 3.0 rent teoretiskt innebär och vad vi rent praktiskt tror om det. nVidia fortsätter att använda CineFX-namnet trots att de nu lämnat FX-serien bakom sig och med NV40 blir det dags att introducera CineFX 3.0. Mycket har hänt sedan sist.

Lenke til kommentar
rart at ATI yter så mye bedre da.

dårlige driver fra nvidia?

 

vi venter i spenning.

ATi yter vel generelt bedre fordi kortene deres ser ut til å være designet for DX-applikasjoner. Selv om nVidia støtter en shader-type som ikke Ati støtter, så betyr jo ikke det at de burde lede ytelsesmessig.

Lenke til kommentar

en annen ting er dette med "hvem som vant denne runden". rent objectivt så har jo ATI vunnet runden så det suser. Ikke bare har de noe lunde lik eller bedre ytelse enn nVidia kortene, men de KOSTET også utrolig lite å utvikle ettersom ATI ikke utviklet en helt ny chip.

 

Altså : nVidia bruker 2.7 milliarder =6800ultra =lik ytelse som X800xt

 

Og derfor: Ati bruker redesignet chip = lite penger brukt = X800xt =6800ultra

 

=ATI vinner runden

 

samtidig så har Ati MYE bedre forutsetninger enn det nvidia har med sin neste chip:

R500

 

Denne chippen er ATI allerede igang med (nVidia driver sikkert med sitt de og) og jeg vil tippe de har større resurser tilgjengelig på utviklingen av denne chippen en det nVidia har på sitt neste kort.

Lenke til kommentar

Nå er jo nvidias teknologi overlegen da, nettopp fordi de har utviklet en ny brikke, problemet er at det ikke virker som om de klarer å utnytte det fullt ut..

Når det gjelder neste generasjon, har jo Nvidia tid til å finpusse den nye brikken sin, mens Ati fortsatt er opptatt av å utvikle den.

 

I en tråd full av Ati-fanboys virker jeg som en desperat nvidia-fanboy, saken er fortsatt den at jeg tror jeg kommer til å kjøpe ati denne gangen, prøver bare å forsvare nvidia litt mot alle angrepene.

Lenke til kommentar
kingy...    6800ultra =lik ytelse som X800xt  :laugh:

 

i 1200 x1600 er 6800 ultra 80% bedre enn ati 9800 xt :thumbup:

Nå snakket ikke han om 9800xt da :roll:

Han snakker om _X800XT_ som er noe helt anderledes.

 

Hvis du hadde en leif her, kan du være så vennlig å vise meg kilden din.

 

Synes det kingy sa hørtes veldig logiskt ut, ikke noe usmart der.

Endret av jokki
Lenke til kommentar
kingy...    6800ultra =lik ytelse som X800xt  :laugh:

 

i 1200 x1600 er 6800 ultra 80% bedre enn ati 9800 xt :thumbup:

Nå snakket ikke han om 9800xt da :roll:

Han snakker om _X800XT_ som er noe helt anderledes.

 

Hvis du hadde en leif her, kan du være så vennlig å vise meg kilden din.

 

Synes det kingy sa hørtes veldig logiskt ut, ikke noe usmart der.

beklager,trodde det var ati 9800 xt han mente.. :blush:

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...