Gå til innhold

Nvidia GTX Titan


Nizzen

Anbefalte innlegg

Videoannonse
Annonse

Har noen testet compute-oppgaver på Titan i praksis? Tenker Luxrender, Blender, eller Vray RT i Maya eller 3ds Max? Hva med viewport-ytelse i scener med flere millioner polygoner?

Endret av xRun
Lenke til kommentar

Jeg skjønner egentlig ikke helt pointet med alle de nye korta som spys ut..jeg mener, kraften i feks et 7970 kort eller 680 blir jo ikke utnyttet engang, grunnet den arkitektur de må forholde seg til ang hovedkort, minne og denslags. Slik systemene er satt opp nå med hovedkort, minne, cpu, vil dette være en enorm flaskehals for kraftige skjermkort, der kanskje, iflg mange spillutviklere, bare 40-50% av kraften blir utnyttet.

Her tror jeg pS4 kommer til å presse fram mange nye teknologier, som vil muliggjør enorme hopp med både det vi sitter med nå, samt nye arkitekturer som bygges. Nytter vel egentlig ikke med 2 milliarder mer transistorer eller nye hovedkort, hvis flaskehalsene er det samme.

Endret av Crusis
Lenke til kommentar

Jeg skjønner egentlig ikke helt pointet med alle de nye korta som spys ut..jeg mener, kraften i feks et 7970 kort eller 680 blir jo ikke utnyttet engang, grunnet den arkitektur de må forholde seg til ang hovedkort, minne og denslags. Slik systemene er satt opp nå med hovedkort, minne, cpu, vil dette være en enorm flaskehals for kraftige skjermkort, der kanskje, iflg mange spillutviklere, bare 40-50% av kraften blir utnyttet.

Her tror jeg pS4 kommer til å presse fram mange nye teknologier, som vil muliggjør enorme hopp med både det vi sitter med nå, samt nye arkitekturer som bygges. Nytter vel egentlig ikke med 2 milliarder mer transistorer eller nye hovedkort, hvis flaskehalsene er det samme.

Hva er det med dagens minne, hovedkort og systemarkitektur generelt som gjør at det er så stor flaskehals? Såvidt jeg har forstått er det programvaren som er flaskehalsen i dag, ikke systemarkitekturen.

Lenke til kommentar

Hva er det med dagens minne, hovedkort og systemarkitektur generelt som gjør at det er så stor flaskehals? Såvidt jeg har forstått er det programvaren som er flaskehalsen i dag, ikke systemarkitekturen.

 

For det første:

 

Vi bruker ikke Unified memory, noe som bidrar til langt lavere overføringshastigheter i maskinvaren, enn hva som kunne vært mulig. GPU må vente på informasjon fra cpu og internminne, og enten vil liker det eller ikke, går så mye som kanskje 40% ytelse tapt her.

Selv med pci-e 3 og ddr3 2400mhz er maxbåndbredde 29,8 gb/s. Dersom cpu bruker la oss si 0,5 sekund på å sette scenen på 60 bilder, og vi antar overføring til gpu tar like lang tid som cpu trenger til å kalkulere, så er max båndvidde 124 mb/s, per bilde, gitt 60 f/s..det er ikke mye...

 

Maximum memory bandwidth provided by dual-channel DDR3 memory sub-system at 1866MHz is 29.8GB/s, which should be sufficient for today’s microprocessors, but may be insufficient for powerful graphics adapters. By contrast, an inexpensive 128-bit GDDR5-based memory sub-system with 3400MHz effective clock-speed enables 54.4GB/s of memory bandwidth, or 82% higher compared to DDR3-based subs-system. While this clearly is not enough for a high-end graphics solution, it should be sufficient for modern mainstream graphics adapters that cost $100 - $130 and which truly provide adequate performance. To enable the power within new highend graphics card like the Radeon 7970 or Nvidia 680, we would need a total new architecture, unified memory where the gpu can unleash its full and True potential. Now, we are probably not using more than 40% of that power, due to the architecture in pc`s in general.

 

Gpu må vente på cpu skal gjøre seg ferdig med alt som påvirker hvordan bilde skal se ut, dvs å sette scenen. Paralellkjølring av cpu og gpu er kun mulig i et oppsett med alt minne i en bulk, altså unified. Gpu vil i realiteten ha dårlig tid. Godt under et sekund, kanskje 0,2-0,3. Gpu er altfor spesialisert til å gjøre alt på egen hånd. Tester kan si at dette vil ikke merkes uansett, men realiteten er at GPU ikke er i nærheten av sitt sane potensiale vi kunne hatt. I tillegg bruker ikke spillutviklere nok penger til virkelig å grave i dypet av hardwaren, og få ut det beste. Se hva eks PS3 gjorde med Uncharted 3...alt dreier seg egentlig også hvor mye støtte/budsjett nye spill har.

Dessuten er internminne på skjermkort for lite enda standard, til å kunne spy ut langt mer høyoppløselige textures enn hva vi ser nå. Ps4 gjorde en ting rett der, med 8gb.

Endret av Crusis
Lenke til kommentar

For det første:

 

Vi bruker ikke Unified memory, noe som bidrar til langt lavere overføringshastigheter i maskinvaren, enn hva som kunne vært mulig. GPU må vente på informasjon fra cpu og internminne, og enten vil liker det eller ikke, går så mye som kanskje 40% ytelse tapt her.

Selv med pci-e 3 og ddr3 2400mhz er maxbåndbredde 29,8 gb/s. Dersom cpu bruker la oss si 0,5 sekund på å sette scenen på 60 bilder, og vi antar overføring til gpu tar like lang tid som cpu trenger til å kalkulere, så er max båndvidde 124 mb/s, per bilde, gitt 60 f/s..det er ikke mye...

Unified memory har ingenting med overføringshastigheter å gjøre, det hjelper primært på latency og åpner opp for å gjøre mer arbeid gjennom GPGPU.

 

Ingen spill i dag fungerer slik at det bare er en frame i pipeline, CPU og GPU har alltid en frame å jobbe med siden vi bruker dobbel bufring. Dessuten er det fint lite data som endres per frame. Det som virkelig tar opp båndbredde er tekstur-, mesh- og annen dataoverføring, og dette er oftest fikset ved lasteskjermen og/eller streaming gjennom banen. Maksimal datatrafikk per frame til en GPU med et PCIe 3.0 x16-grensesnitt er 272.67MB/s og selv en fjerdedel av dette er nok for skjermkort som Titan i dag.

 

Maximum memory bandwidth provided by dual-channel DDR3 memory sub-system at 1866MHz is 29.8GB/s, which should be sufficient for today’s microprocessors, but may be insufficient for powerful graphics adapters. By contrast, an inexpensive 128-bit GDDR5-based memory sub-system with 3400MHz effective clock-speed enables 54.4GB/s of memory bandwidth, or 82% higher compared to DDR3-based subs-system. While this clearly is not enough for a high-end graphics solution, it should be sufficient for modern mainstream graphics adapters that cost $100 - $130 and which truly provide adequate performance. To enable the power within new highend graphics card like the Radeon 7970 or Nvidia 680, we would need a total new architecture, unified memory where the gpu can unleash its full and True potential. Now, we are probably not using more than 40% of that power, due to the architecture in pc`s in general.

Her er kilden: http://www.xbitlabs....ory_Report.html

 

Det er her snakk om en APU, og det er båndbredden til framebuffer som er problemet her, ikke båndbredde eller latency mellom GPU og CPU.

En av de store flaskehalsene for skjermkort på PC er Direct3D. Det er svært sjelden at skjermkort blir 100% belastet på alle regneenhetene, nettopp fordi det er variasjoner i scenekompleksiteten, AMD og Nvidia designer også skjermkortene sine med høyere fillrate og shaderytelse enn de kan vise i praksis av denne grunn.

 

Gpu må vente på cpu skal gjøre seg ferdig med alt som påvirker hvordan bilde skal se ut, dvs å sette scenen.

Nei.

Paralellkjølring av cpu og gpu er kun mulig i et oppsett med alt minne i en bulk, altså unified. Gpu vil i realiteten ha dårlig tid. Godt under et sekund, kanskje 0,2-0,3.

Prøv 0.017 sekunder så kan vi begynne å snakke.

Gpu er altfor spesialisert til å gjøre alt på egen hånd.

Absolutt

Tester kan si at dette vil ikke merkes uansett, men realiteten er at GPU ikke er i nærheten av sitt sane potensiale vi kunne hatt.

Absolutt.

I tillegg bruker ikke spillutviklere nok penger til virkelig å grave i dypet av hardwaren, og få ut det beste.

Dette hadde kostet milliarder under utvikling, og enda mer i etterkant om man skulle hatt noen form for bakoverkompatibilitet. Det er ikke praktisk mulig å skrive assembly for hver enkelt GPU med hver kombinasjon av funksjonelle enheter.

Se hva eks PS3 gjorde med Uncharted 3...alt dreier seg egentlig også hvor mye støtte/budsjett nye spill har.

Så du mener altså at vi skal droppe Direct3D9/10/11, og skrive assemblykode for de 100 mest brukte GPUene i dag, og også oppdatere spillet med støtte for de neste tre generasjonene med GPUer? Industrien er ikke tjent med dette på noen måte.

Dessuten er internminne på skjermkort for lite enda standard, til å kunne spy ut langt mer høyoppløselige textures enn hva vi ser nå. Ps4 gjorde en ting rett der, med 8gb.

Jeg har enda til gode å se et spill som faktisk klarer å nyttegjøre seg 2GB VRAM på fornuftig vis, så hva er belegget ditt for at 2/3GB VRAM er for lite?

Endret av arni90
  • Liker 3
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...