Gå til innhold

Nvidia GTX Titan


Nizzen

Anbefalte innlegg

 

 

Så du mener altså at vi skal droppe Direct3D9/10/11, og skrive assemblykode for de 100 mest brukte GPUene i dag, og også oppdatere spillet med støtte for de neste tre generasjonene med GPUer? Industrien er ikke tjent med dette på noen måte.

 

Jeg har enda til gode å se et spill som faktisk klarer å nyttegjøre seg 2GB VRAM på fornuftig vis, så hva er belegget ditt for at 2/3GB VRAM er for lite?

 

Bare et kjapt svar for ikke å ødelegge Titan tråd. Jeg mener ikke vi skal droppe noe, konstanterer bare at det er utrolige flaskehalser i systemet enda, som ikke muliggjør for et highend skjermkorts egentlige potensiale. Her er en enkel link fra en utvikler som pratet, som viser denne flaskehalsen: http://societyandreligion.com/2013/03/ps4-ram-shared-gpu/

 

Jeg merker i spill ang ram, at særlig på drawdistanse er det sinnsykt mye å hente. Mitt forrige 6950, 2gb kort, hadde problemer med horisonten til tider i FarCry 3, dvs, den så ikke ut som en virkelig horisont langt der borte. Med 7970 kunne jeg se mye lenger i horisonten, samt det så ganske så virkelig ut. Samme med Battlefield 3. Testet et 6gb Sapphire kort her, og da jeg ser i kikkert i spillet, kan jeg se ting som skjer, detlajer, som ikke eksisterer på mitt nåværende 3gb. Så det er mye mer detaljer og informasjon å hente, men poenget er at de fleste sitter med 2/3 gb kort, og de fleste spillutviklere i de fleste spill velger å ikke bruke mer. Bare en enkel obeservasjon. For ikke å snakke om at informasjon må hentes fra en harddisk, sendes til ram/cpu eller cpu/ram, for så videre til skjermkortet. Der ligger den største flaskehalsen, som tilogmed Titan ikke kommer utenom. Dette bekrefter også John Carmack på mange forum.

Lenke til kommentar
Videoannonse
Annonse

Nvidia hadde vel kalt den noe om de ikke hadde driti på draget litt med navnegivinga.

 

Hadde de gjort det slik de vanligvis gjør det, og at alt kom til riktig tid, så ville

Titan vært GTX 680

"Mini-Titankortet som kommer snart" -> GTX 670

GTX 680 -> 660Ti

GTX 670 -> 660

GTX 660/Ti -> 650/Ti

GTX 650/Ti -> GTX 640

  • Liker 3
Lenke til kommentar

Hadde de gjort det slik de vanligvis gjør det, og at alt kom til riktig tid, så ville

Titan vært GTX 680

"Mini-Titankortet som kommer snart" -> GTX 670

Litt off-topic, men den første Kepler prototypen jeg så (GK104) stod det GeForce GTX 670Ti på.

Det var i desember 2011.

 

På GTC i år så var Nvidai ganske klare på at navnet Titan kom de til å fortsette å bruke fremover også.

Det er også viktig å huske at Titan ikke kun er et gaming-kort. Det er også et kort beregnet for CUDA-utviklere og kunder som trenger god GPGPU ytelse, men ikke trenger et cluster eller ECC.

  • Liker 1
Lenke til kommentar

Titan var vel noe Nvidia så på som en milepæl innen hva de hadde fått til både for gamere og for spill-utviklere.

 

Så det at de gikk bort fra nummer kan bare ha med det at de ville skape en større snakkis rundt kortet med å gi det et enkelt, robust og solid navn.

Lenke til kommentar

Det var nok bare at de ikke fikk gitt den ut tidligere og at de måtte lage en high end chip til folk.

Nvidia har ingen forpliktelser til oss forbrukere, ikke narr deg selv til å tro at de bryr seg om annet enn penger.

 

Min teori er at Titan er Nvidias svar på hva de trodde AMD skulle komme med i år, da de fant ut at AMD ikke hadde noen planer om å oppdatere 7000-serien valgte de å overlasse Titan med ting som overklokking av monitorer, DP-ytelse, overvoltage, og ta en høy pris for dette. På denne måten tjener de mer penger på Titan, de har fortsatt tronen av Single-GPU (selv om den koster sinnsvakt mye,) og de vet at de har en haug med fans som gladelig gir sin førstefødte for noe nytt og flott fra dem.

  • Liker 1
Lenke til kommentar

Testet GPU-rendring med 314.21 beta driver, som ser ut til å funke.

1 stk. Titan på default clocks i Windows 8 x64.

LuxMark:

post-260104-0-45860800-1364041089_thumb.png

 

 

CineBench:

post-260104-0-82451400-1364041101_thumb.jpg

Her er det testet både uten og med Double Presicion satt til Titan i Nvidia kontrollpanel.

Marginalt bedre ytelse med DP aktivert.

Lenke til kommentar

Nvidia har ingen forpliktelser til oss forbrukere, ikke narr deg selv til å tro at de bryr seg om annet enn penger.

 

La meg vinkle det anderledes da.

 

nVidia trengte en "high end chip", fordi for mennesker er det veldig viktig å ha top model.

 

Jeg har ingen illusjoner om forpliktelser fra firma til kunde. Meningen med firmaer er å tjene mest mulig penger, noen ganger på kort sikt, andre ganger på lang sikt.

Lenke til kommentar

Min teori er at Titan er Nvidias svar på hva de trodde AMD skulle komme med i år, da de fant ut at AMD ikke hadde noen planer om å oppdatere 7000-serien valgte de å overlasse Titan med ting som overklokking av monitorer, DP-ytelse, overvoltage, og ta en høy pris for dette. På denne måten tjener de mer penger på Titan, de har fortsatt tronen av Single-GPU (selv om den koster sinnsvakt mye,) og de vet at de har en haug med fans som gladelig gir sin førstefødte for noe nytt og flott fra dem.

"fans som gladelig gir sin førstefødte for noe nytt"? Trodde ærlig talt at du var hakket mer seriøs en andre på dette forumet... :huh: Nu vel...

 

Titan har vært planlagt siden eller GK110 for grafikk som den var kjent som før den fikk navnet Titan har vært planalgt helt siden GK110 ble annonsert. I og med at det ikke akuratt hastet med å få ut kortene ble Tesla modellene prioritert først, og siden august 2012 har det blitt shippet flere titals tusen K20 kort til forskjellige clustere.

 

CUDA-utviklere har også vært en viktig målgruppe for Nvidia her, det er viktig for Nvidia å gjøre features i compute 3.5 som blant annet HyperQ og Dynamic Parallelism tilgjenglig for flere utvikle, da dette blir viktig for CUDA fremover, ikke minst nå når de prøver å pushe CUDA også over på ARM med "Kayla" og etterhvert også Logan og Parker. For en CUDA-utviklere så er $999 for et Titan billig i forhold til over $4000 for et Tesla K20X.

Lenke til kommentar

Ser ut til at de betadriverne jeg testet luxmark med har versjon 1.1 av OpenCL, ikke 1.2 som er i de nyeste WHQL-driverne og som kan ses listet i en del andre tester av Luxmark på to eller flere Titan i SLI. Kanskje en hasteløsning, skjønt dette fortsatt dreier seg om betadrivere. Da er jeg litt spent på om de kommer til å optimalisere driverne ytterligere for Titans compute-egenskaper. Ihvertfall at de ferdige driverne vil kjøre OpenCL 1.2.

Lenke til kommentar

Kjørte en benchmark av BioShock Infinite med UltraDX11_DDOF på 2560x1440 (i860 CPU og PCIE 2.0):

 

Scene Duration (seconds), Average FPS, Min FPS, Max FPS, Scene Name

32.66, 59.03, 9.75, 157.09, Welcome Center

6.61, 57.94, 11.05, 76.69, Scene Change: Disregard Performance In This Section

22.34, 61.54, 12.67, 114.46, Town Center

7.61, 61.23, 28.90, 70.82, Raffle

9.61, 86.95, 41.01, 99.29, Monument Island

3.02, 95.99, 86.47, 100.58, Benchmark Finished: Disregard Performance In This Section

81.86, 64.50, 9.75, 157.09, Overall

 

Dette med 314.22-drivere. Who knows hvordan det forholder seg til resten, men selve spillet ser jo helt herlig ut :)

Lenke til kommentar

Nvidia hadde vel kalt den noe om de ikke hadde driti på draget litt med navnegivinga.

 

Hadde de gjort det slik de vanligvis gjør det, og at alt kom til riktig tid, så ville

Titan vært GTX 680

"Mini-Titankortet som kommer snart" -> GTX 670

GTX 680 -> 660Ti

GTX 670 -> 660

GTX 660/Ti -> 650/Ti

GTX 650/Ti -> GTX 640

 

 

Derfor lurer jeg på om Titan kortet er ren "propaganda". Blåse opp det nye kortet som noe "historisk" bare for å "selge mest mulig når vaflane er varme".

Når jeg sammenligner gtx 690 og Titan på komplett. no for å se forskjeller så viser det for meg at Titan-kortet har mere minne enn 690. Når det kommer til hastigheter så har 690 mer.

 

Sammenlignet Asus kort. Se bilde.

 

Noe jeg ikke har fått med meg her?

post-277821-0-66051300-1364323179_thumb.jpg

Lenke til kommentar

Derfor lurer jeg på om Titan kortet er ren "propaganda". Blåse opp det nye kortet som noe "historisk" bare for å "selge mest mulig når vaflane er varme".

Når jeg sammenligner gtx 690 og Titan på komplett. no for å se forskjeller så viser det for meg at Titan-kortet har mere minne enn 690. Når det kommer til hastigheter så har 690 mer.

 

Sammenlignet Asus kort. Se bilde.

 

Noe jeg ikke har fått med meg her?

 

Med 690 kan du dele alt på 2, da det er sli kort

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...