Crusis Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 Så du mener altså at vi skal droppe Direct3D9/10/11, og skrive assemblykode for de 100 mest brukte GPUene i dag, og også oppdatere spillet med støtte for de neste tre generasjonene med GPUer? Industrien er ikke tjent med dette på noen måte. Jeg har enda til gode å se et spill som faktisk klarer å nyttegjøre seg 2GB VRAM på fornuftig vis, så hva er belegget ditt for at 2/3GB VRAM er for lite? Bare et kjapt svar for ikke å ødelegge Titan tråd. Jeg mener ikke vi skal droppe noe, konstanterer bare at det er utrolige flaskehalser i systemet enda, som ikke muliggjør for et highend skjermkorts egentlige potensiale. Her er en enkel link fra en utvikler som pratet, som viser denne flaskehalsen: http://societyandreligion.com/2013/03/ps4-ram-shared-gpu/ Jeg merker i spill ang ram, at særlig på drawdistanse er det sinnsykt mye å hente. Mitt forrige 6950, 2gb kort, hadde problemer med horisonten til tider i FarCry 3, dvs, den så ikke ut som en virkelig horisont langt der borte. Med 7970 kunne jeg se mye lenger i horisonten, samt det så ganske så virkelig ut. Samme med Battlefield 3. Testet et 6gb Sapphire kort her, og da jeg ser i kikkert i spillet, kan jeg se ting som skjer, detlajer, som ikke eksisterer på mitt nåværende 3gb. Så det er mye mer detaljer og informasjon å hente, men poenget er at de fleste sitter med 2/3 gb kort, og de fleste spillutviklere i de fleste spill velger å ikke bruke mer. Bare en enkel obeservasjon. For ikke å snakke om at informasjon må hentes fra en harddisk, sendes til ram/cpu eller cpu/ram, for så videre til skjermkortet. Der ligger den største flaskehalsen, som tilogmed Titan ikke kommer utenom. Dette bekrefter også John Carmack på mange forum. Lenke til kommentar
Blazer Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 nok kjedelig prat gutter.. Titan det skal snakkes om her! legger ved noen bilder hva i allverden skal du med 4 stk. send i hvertfall 1 stk til meg :D Lenke til kommentar
War Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 Jeg har ikke helt forstått hvor titan skal plaseres. Det er hakket over 680 da det er 1 core, men det er svakere en ett 690? Det er på en måte " 685" ? Lenke til kommentar
Blazer Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 Jeg har ikke helt forstått hvor titan skal plaseres. Det er hakket over 680 da det er 1 core, men det er svakere en ett 690? Det er på en måte " 685" ? er vel egentlig ikke i noen kategori. men det er vel 690 bare ikke sli og de evt problemene det medfører. Lenke til kommentar
Andrull Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 Nvidia hadde vel kalt den noe om de ikke hadde driti på draget litt med navnegivinga. Hadde de gjort det slik de vanligvis gjør det, og at alt kom til riktig tid, så ville Titan vært GTX 680 "Mini-Titankortet som kommer snart" -> GTX 670 GTX 680 -> 660Ti GTX 670 -> 660 GTX 660/Ti -> 650/Ti GTX 650/Ti -> GTX 640 3 Lenke til kommentar
HKS Skrevet 23. mars 2013 Del Skrevet 23. mars 2013 Hadde de gjort det slik de vanligvis gjør det, og at alt kom til riktig tid, så ville Titan vært GTX 680 "Mini-Titankortet som kommer snart" -> GTX 670 Litt off-topic, men den første Kepler prototypen jeg så (GK104) stod det GeForce GTX 670Ti på. Det var i desember 2011. På GTC i år så var Nvidai ganske klare på at navnet Titan kom de til å fortsette å bruke fremover også. Det er også viktig å huske at Titan ikke kun er et gaming-kort. Det er også et kort beregnet for CUDA-utviklere og kunder som trenger god GPGPU ytelse, men ikke trenger et cluster eller ECC. 1 Lenke til kommentar
MOO- Skrevet 23. mars 2013 Del Skrevet 23. mars 2013 Titan var vel noe Nvidia så på som en milepæl innen hva de hadde fått til både for gamere og for spill-utviklere. Så det at de gikk bort fra nummer kan bare ha med det at de ville skape en større snakkis rundt kortet med å gi det et enkelt, robust og solid navn. Lenke til kommentar
Taake89 Skrevet 23. mars 2013 Del Skrevet 23. mars 2013 Det var nok bare at de ikke fikk gitt den ut tidligere og at de måtte lage en high end chip til folk. Lenke til kommentar
N o r e n g Skrevet 23. mars 2013 Del Skrevet 23. mars 2013 Det var nok bare at de ikke fikk gitt den ut tidligere og at de måtte lage en high end chip til folk. Nvidia har ingen forpliktelser til oss forbrukere, ikke narr deg selv til å tro at de bryr seg om annet enn penger. Min teori er at Titan er Nvidias svar på hva de trodde AMD skulle komme med i år, da de fant ut at AMD ikke hadde noen planer om å oppdatere 7000-serien valgte de å overlasse Titan med ting som overklokking av monitorer, DP-ytelse, overvoltage, og ta en høy pris for dette. På denne måten tjener de mer penger på Titan, de har fortsatt tronen av Single-GPU (selv om den koster sinnsvakt mye,) og de vet at de har en haug med fans som gladelig gir sin førstefødte for noe nytt og flott fra dem. 1 Lenke til kommentar
xRun Skrevet 23. mars 2013 Del Skrevet 23. mars 2013 Testet GPU-rendring med 314.21 beta driver, som ser ut til å funke. 1 stk. Titan på default clocks i Windows 8 x64. LuxMark: CineBench: Her er det testet både uten og med Double Presicion satt til Titan i Nvidia kontrollpanel. Marginalt bedre ytelse med DP aktivert. Lenke til kommentar
Taake89 Skrevet 23. mars 2013 Del Skrevet 23. mars 2013 Nvidia har ingen forpliktelser til oss forbrukere, ikke narr deg selv til å tro at de bryr seg om annet enn penger. La meg vinkle det anderledes da. nVidia trengte en "high end chip", fordi for mennesker er det veldig viktig å ha top model. Jeg har ingen illusjoner om forpliktelser fra firma til kunde. Meningen med firmaer er å tjene mest mulig penger, noen ganger på kort sikt, andre ganger på lang sikt. Lenke til kommentar
War Skrevet 23. mars 2013 Del Skrevet 23. mars 2013 Ikke titan, men ka trur dokk om dette? http://www.eevblog.com/forum/projects/hacking-nvidia-cards-into-their-professional-counterparts/ spare 1 milliard dollar på en mod for cuda? 1 Lenke til kommentar
Nizzen Skrevet 24. mars 2013 Forfatter Del Skrevet 24. mars 2013 Ikke titan, men ka trur dokk om dette? http://www.eevblog.c...l-counterparts/ spare 1 milliard dollar på en mod for cuda? Nice find Lenke til kommentar
HKS Skrevet 24. mars 2013 Del Skrevet 24. mars 2013 Min teori er at Titan er Nvidias svar på hva de trodde AMD skulle komme med i år, da de fant ut at AMD ikke hadde noen planer om å oppdatere 7000-serien valgte de å overlasse Titan med ting som overklokking av monitorer, DP-ytelse, overvoltage, og ta en høy pris for dette. På denne måten tjener de mer penger på Titan, de har fortsatt tronen av Single-GPU (selv om den koster sinnsvakt mye,) og de vet at de har en haug med fans som gladelig gir sin førstefødte for noe nytt og flott fra dem. "fans som gladelig gir sin førstefødte for noe nytt"? Trodde ærlig talt at du var hakket mer seriøs en andre på dette forumet... Nu vel... Titan har vært planlagt siden eller GK110 for grafikk som den var kjent som før den fikk navnet Titan har vært planalgt helt siden GK110 ble annonsert. I og med at det ikke akuratt hastet med å få ut kortene ble Tesla modellene prioritert først, og siden august 2012 har det blitt shippet flere titals tusen K20 kort til forskjellige clustere. CUDA-utviklere har også vært en viktig målgruppe for Nvidia her, det er viktig for Nvidia å gjøre features i compute 3.5 som blant annet HyperQ og Dynamic Parallelism tilgjenglig for flere utvikle, da dette blir viktig for CUDA fremover, ikke minst nå når de prøver å pushe CUDA også over på ARM med "Kayla" og etterhvert også Logan og Parker. For en CUDA-utviklere så er $999 for et Titan billig i forhold til over $4000 for et Tesla K20X. Lenke til kommentar
xRun Skrevet 24. mars 2013 Del Skrevet 24. mars 2013 Ser ut til at de betadriverne jeg testet luxmark med har versjon 1.1 av OpenCL, ikke 1.2 som er i de nyeste WHQL-driverne og som kan ses listet i en del andre tester av Luxmark på to eller flere Titan i SLI. Kanskje en hasteløsning, skjønt dette fortsatt dreier seg om betadrivere. Da er jeg litt spent på om de kommer til å optimalisere driverne ytterligere for Titans compute-egenskaper. Ihvertfall at de ferdige driverne vil kjøre OpenCL 1.2. Lenke til kommentar
Paull Skrevet 26. mars 2013 Del Skrevet 26. mars 2013 Kjørte en benchmark av BioShock Infinite med UltraDX11_DDOF på 2560x1440 (i860 CPU og PCIE 2.0): Scene Duration (seconds), Average FPS, Min FPS, Max FPS, Scene Name 32.66, 59.03, 9.75, 157.09, Welcome Center 6.61, 57.94, 11.05, 76.69, Scene Change: Disregard Performance In This Section 22.34, 61.54, 12.67, 114.46, Town Center 7.61, 61.23, 28.90, 70.82, Raffle 9.61, 86.95, 41.01, 99.29, Monument Island 3.02, 95.99, 86.47, 100.58, Benchmark Finished: Disregard Performance In This Section 81.86, 64.50, 9.75, 157.09, Overall Dette med 314.22-drivere. Who knows hvordan det forholder seg til resten, men selve spillet ser jo helt herlig ut Lenke til kommentar
N o r e n g Skrevet 26. mars 2013 Del Skrevet 26. mars 2013 En interessant artikkel på anandtech angående stuttering, måling av dette, og hva som gjøres for å fikse dette på AMDs side: http://www.anandtech.com/show/6857/amd-stuttering-issues-driver-roadmap-fraps Lenke til kommentar
labbus Skrevet 26. mars 2013 Del Skrevet 26. mars 2013 Nvidia hadde vel kalt den noe om de ikke hadde driti på draget litt med navnegivinga. Hadde de gjort det slik de vanligvis gjør det, og at alt kom til riktig tid, så ville Titan vært GTX 680 "Mini-Titankortet som kommer snart" -> GTX 670 GTX 680 -> 660Ti GTX 670 -> 660 GTX 660/Ti -> 650/Ti GTX 650/Ti -> GTX 640 Derfor lurer jeg på om Titan kortet er ren "propaganda". Blåse opp det nye kortet som noe "historisk" bare for å "selge mest mulig når vaflane er varme". Når jeg sammenligner gtx 690 og Titan på komplett. no for å se forskjeller så viser det for meg at Titan-kortet har mere minne enn 690. Når det kommer til hastigheter så har 690 mer. Sammenlignet Asus kort. Se bilde. Noe jeg ikke har fått med meg her? Lenke til kommentar
Taake89 Skrevet 26. mars 2013 Del Skrevet 26. mars 2013 Derfor lurer jeg på om Titan kortet er ren "propaganda". Blåse opp det nye kortet som noe "historisk" bare for å "selge mest mulig når vaflane er varme". Når jeg sammenligner gtx 690 og Titan på komplett. no for å se forskjeller så viser det for meg at Titan-kortet har mere minne enn 690. Når det kommer til hastigheter så har 690 mer. Sammenlignet Asus kort. Se bilde. Noe jeg ikke har fått med meg her? Med 690 kan du dele alt på 2, da det er sli kort Lenke til kommentar
labbus Skrevet 26. mars 2013 Del Skrevet 26. mars 2013 Med 690 kan du dele alt på 2, da det er sli kort Den skjønte jeg ikke da Titan kjøres både i SLI og 3 og 4 stk....har selv sett det her inne bl.a. av Nizzen Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå