Gå til innhold

nVidias kommende lanseringer, hva vet vi?


WheelMan

Anbefalte innlegg

Så lenge det ikke er mer enn 36cm langt (eller 44cm med noen modifikasjoner), så kommer det fint inn i kabinettet.

 

Gjelder å være på den sikre siden. :innocent:

 

hva slags kabinett har du da andrull?

 

jojo, tar jeg vekk den ene harddiskbrønnen min, så har jeg også plass til et 35-40cm kort! :D ser jo litt brutalt ut også det! :p

Lenke til kommentar
Videoannonse
Annonse

Hehe, jo takk Lockbreaker.

Er det noen tekniske problemer ved å ha to DVI og en HDMI (istedenfor TV-out) på dagens skjermkort?

 

Skulle ivhertfall gjerne sett at skjermkort også kom med HDMI snart.

9800GX2 må vel i såfall være en av (om ikke det eneste) med to DVI og en HDMI. (må det virkelig en GPU ekstra til for å få flere digitale utganger?)

Endret av andrull
Lenke til kommentar
Skulle ivhertfall gjerne sett at skjermkort også kom med HDMI snart.

9800GX2 må vel i såfall være en av (om ikke det eneste) med to DVI og en HDMI. (må det virkelig en GPU ekstra til for å få flere digitale utganger?)

 

hva skal du egentlig med HDMI? lyd?

 

asus 3870x2 har 4 dvi utganger

Lenke til kommentar

Er bare så mye mer nyttig med HDMI fremfor TV-out synes jeg. Samt det gjør det enklere å koble til TVen. :)

Først når jeg fikk 9800GX2 jeg virkelig fikk se hva TV-en var god for. (VGA så forferdelig ut på den TV-en ivhertfall)

 

Og jeg har verken tid eller penger til å kjøpe en ekstra DVI-HDMI kabel (eller en lang DVI kabel + HDMI-DVI adapter):)

Lenke til kommentar

Det er nok en stor fordel å kunne koble en TV direkte til GPU. Nå kommer nesten alle skjermer med HDMI også, da er det nok en fordel at GPU har HDMI utgang også.

 

Når jeg nylige fikk ny skjerm, en Samsung 2493HM med HDMI-ingang, da tankte jeg søren jeg skulle hatt HDMI på GPU.

Lenke til kommentar

Ja. Men ettersom jeg ikke fikk med noen lydkabel til skjermkortet (intern, antok det var inngangen var til) så fikk jeg ikke noe lyd gjennom den dog. (noe jeg heller aldri trengte)

 

Kjørte også Tre skjermer på oppsettet samtidig, og testet noen spill med tre skjermer med 5040x1050. :p (2stk 24" + 1stk 22")

Gikk relativt dårlig i de spillene jeg prøvde og var masse bugs i programvaren jeg brukte ivhertfall. :p

 

Klarte dessverre å miste bildene av oppsettet under en nylig formatering. (svært sjelden jeg legger bilder på skrivebordet)

Endret av andrull
Lenke til kommentar

Tipper det ja.

Hvor høy/lav shaderfrekvensen er har ingenting å si.

Det er arkitekturen som teller. Og Nvidia utalte at shaderene kom til å være 50% mer effektive enn de vi finner i dagens shadere. Om dette var sammenlignet opp mot lik frekvens vet jeg ikke, men i såfall vil de nok ikke yte stort mer enn en 10% mer enn dagens.

 

På den andre siden så har de nesten dobbelt så mange shadere som dagens skjermkort.

Endret av andrull
Lenke til kommentar

Kanskje derfor de har doblet shader antallet og at det vil gi mer guff en halvparten med høy frekvens. Jo flere shadere man har jo vanskeligere er det vel å kjøre høy frekvens.

 

Samt at de nevnte jo at hver shader er mer effektiv enn den gamle typen.

Endret av Theo343
Lenke til kommentar

Jo det skjønner jeg jo. Men da sitter man i såfall igjen med samme shaderytelse totalt. :(

600Mhz * 240stk <=> 1200Mhz*120stk

1200 * 50% = 1800Mhz * 120 stk.

Dette er like under/like bra som dagens 9800GTX....

 

Var ivhertfall 50% som nvidia/ryktene sier.

 

Samt en voldsom ytelse på kjernen. o,O

Endret av andrull
Lenke til kommentar
The 280 has 240 stream processors and runs at a clock of 602MHz, a massive miss on what the firm intended. The processor clock runs at 1296MHz and the memory is at 1107MHz. The high-end part has 1G of GDDR3 at 512b width. This means that they are pretty much stuck offering 1G cards, not a great design choice here.

Kilde.

Lenke til kommentar
The 280 has 240 stream processors and runs at a clock of 602MHz, a massive miss on what the firm intended.
Så mistankene om dårlig shaderytelse er korrekt? Var planen å kunne kjøre vesentlig høyere frekvens oppimot 900MHz?

 

512bit minnebuss og 1GB GDDR3 er ikke det verste, men verre med shaderne.

Endret av Theo343
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...