Mydog Skrevet 21. mars 2013 Del Skrevet 21. mars 2013 ny rekord på strømforbruk: 1375w.... fremdeles kjører 1200w FORTRON som en guuud. Hjelper å få litt fart på CPUen ser jeg Lenke til kommentar
xRun Skrevet 21. mars 2013 Del Skrevet 21. mars 2013 (endret) Har noen testet compute-oppgaver på Titan i praksis? Tenker Luxrender, Blender, eller Vray RT i Maya eller 3ds Max? Hva med viewport-ytelse i scener med flere millioner polygoner? Endret 21. mars 2013 av xRun Lenke til kommentar
N o r e n g Skrevet 21. mars 2013 Del Skrevet 21. mars 2013 Hva skjer med strømforbruket om du fyrer opp Fire Strike Extreme? Lenke til kommentar
**dp** Skrevet 21. mars 2013 Del Skrevet 21. mars 2013 (endret) Hva skjer med strømforbruket om du fyrer opp Fire Strike Extreme? Fire Extreme støtter vel bare to gpuer mener jeg å huske. EDIT: crappy score.. men første gputest ga 1250w Endret 21. mars 2013 av **dp** Lenke til kommentar
**dp** Skrevet 21. mars 2013 Del Skrevet 21. mars 2013 (endret) Hjelper å få litt fart på CPUen ser jeg pluss at det er en X EDIT: valley med 4-way fungerer ikke skikkelig.. kjørte med 3 kort. Endret 21. mars 2013 av **dp** Lenke til kommentar
Albatraum Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 Hvor blir det av Haswell-E med 10+ kjerner, x99 hovedkort og DDR4. Føler at det blir litt dumt å kjøpe 2xTitan nå men det frister veldig. Lenke til kommentar
Crusis Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 (endret) Jeg skjønner egentlig ikke helt pointet med alle de nye korta som spys ut..jeg mener, kraften i feks et 7970 kort eller 680 blir jo ikke utnyttet engang, grunnet den arkitektur de må forholde seg til ang hovedkort, minne og denslags. Slik systemene er satt opp nå med hovedkort, minne, cpu, vil dette være en enorm flaskehals for kraftige skjermkort, der kanskje, iflg mange spillutviklere, bare 40-50% av kraften blir utnyttet. Her tror jeg pS4 kommer til å presse fram mange nye teknologier, som vil muliggjør enorme hopp med både det vi sitter med nå, samt nye arkitekturer som bygges. Nytter vel egentlig ikke med 2 milliarder mer transistorer eller nye hovedkort, hvis flaskehalsene er det samme. Endret 22. mars 2013 av Crusis Lenke til kommentar
N o r e n g Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 Jeg skjønner egentlig ikke helt pointet med alle de nye korta som spys ut..jeg mener, kraften i feks et 7970 kort eller 680 blir jo ikke utnyttet engang, grunnet den arkitektur de må forholde seg til ang hovedkort, minne og denslags. Slik systemene er satt opp nå med hovedkort, minne, cpu, vil dette være en enorm flaskehals for kraftige skjermkort, der kanskje, iflg mange spillutviklere, bare 40-50% av kraften blir utnyttet. Her tror jeg pS4 kommer til å presse fram mange nye teknologier, som vil muliggjør enorme hopp med både det vi sitter med nå, samt nye arkitekturer som bygges. Nytter vel egentlig ikke med 2 milliarder mer transistorer eller nye hovedkort, hvis flaskehalsene er det samme. Hva er det med dagens minne, hovedkort og systemarkitektur generelt som gjør at det er så stor flaskehals? Såvidt jeg har forstått er det programvaren som er flaskehalsen i dag, ikke systemarkitekturen. Lenke til kommentar
Crusis Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 (endret) Hva er det med dagens minne, hovedkort og systemarkitektur generelt som gjør at det er så stor flaskehals? Såvidt jeg har forstått er det programvaren som er flaskehalsen i dag, ikke systemarkitekturen. For det første: Vi bruker ikke Unified memory, noe som bidrar til langt lavere overføringshastigheter i maskinvaren, enn hva som kunne vært mulig. GPU må vente på informasjon fra cpu og internminne, og enten vil liker det eller ikke, går så mye som kanskje 40% ytelse tapt her. Selv med pci-e 3 og ddr3 2400mhz er maxbåndbredde 29,8 gb/s. Dersom cpu bruker la oss si 0,5 sekund på å sette scenen på 60 bilder, og vi antar overføring til gpu tar like lang tid som cpu trenger til å kalkulere, så er max båndvidde 124 mb/s, per bilde, gitt 60 f/s..det er ikke mye... Maximum memory bandwidth provided by dual-channel DDR3 memory sub-system at 1866MHz is 29.8GB/s, which should be sufficient for today’s microprocessors, but may be insufficient for powerful graphics adapters. By contrast, an inexpensive 128-bit GDDR5-based memory sub-system with 3400MHz effective clock-speed enables 54.4GB/s of memory bandwidth, or 82% higher compared to DDR3-based subs-system. While this clearly is not enough for a high-end graphics solution, it should be sufficient for modern mainstream graphics adapters that cost $100 - $130 and which truly provide adequate performance. To enable the power within new highend graphics card like the Radeon 7970 or Nvidia 680, we would need a total new architecture, unified memory where the gpu can unleash its full and True potential. Now, we are probably not using more than 40% of that power, due to the architecture in pc`s in general. Gpu må vente på cpu skal gjøre seg ferdig med alt som påvirker hvordan bilde skal se ut, dvs å sette scenen. Paralellkjølring av cpu og gpu er kun mulig i et oppsett med alt minne i en bulk, altså unified. Gpu vil i realiteten ha dårlig tid. Godt under et sekund, kanskje 0,2-0,3. Gpu er altfor spesialisert til å gjøre alt på egen hånd. Tester kan si at dette vil ikke merkes uansett, men realiteten er at GPU ikke er i nærheten av sitt sane potensiale vi kunne hatt. I tillegg bruker ikke spillutviklere nok penger til virkelig å grave i dypet av hardwaren, og få ut det beste. Se hva eks PS3 gjorde med Uncharted 3...alt dreier seg egentlig også hvor mye støtte/budsjett nye spill har. Dessuten er internminne på skjermkort for lite enda standard, til å kunne spy ut langt mer høyoppløselige textures enn hva vi ser nå. Ps4 gjorde en ting rett der, med 8gb. Endret 22. mars 2013 av Crusis Lenke til kommentar
N o r e n g Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 (endret) For det første: Vi bruker ikke Unified memory, noe som bidrar til langt lavere overføringshastigheter i maskinvaren, enn hva som kunne vært mulig. GPU må vente på informasjon fra cpu og internminne, og enten vil liker det eller ikke, går så mye som kanskje 40% ytelse tapt her. Selv med pci-e 3 og ddr3 2400mhz er maxbåndbredde 29,8 gb/s. Dersom cpu bruker la oss si 0,5 sekund på å sette scenen på 60 bilder, og vi antar overføring til gpu tar like lang tid som cpu trenger til å kalkulere, så er max båndvidde 124 mb/s, per bilde, gitt 60 f/s..det er ikke mye... Unified memory har ingenting med overføringshastigheter å gjøre, det hjelper primært på latency og åpner opp for å gjøre mer arbeid gjennom GPGPU. Ingen spill i dag fungerer slik at det bare er en frame i pipeline, CPU og GPU har alltid en frame å jobbe med siden vi bruker dobbel bufring. Dessuten er det fint lite data som endres per frame. Det som virkelig tar opp båndbredde er tekstur-, mesh- og annen dataoverføring, og dette er oftest fikset ved lasteskjermen og/eller streaming gjennom banen. Maksimal datatrafikk per frame til en GPU med et PCIe 3.0 x16-grensesnitt er 272.67MB/s og selv en fjerdedel av dette er nok for skjermkort som Titan i dag. Maximum memory bandwidth provided by dual-channel DDR3 memory sub-system at 1866MHz is 29.8GB/s, which should be sufficient for today’s microprocessors, but may be insufficient for powerful graphics adapters. By contrast, an inexpensive 128-bit GDDR5-based memory sub-system with 3400MHz effective clock-speed enables 54.4GB/s of memory bandwidth, or 82% higher compared to DDR3-based subs-system. While this clearly is not enough for a high-end graphics solution, it should be sufficient for modern mainstream graphics adapters that cost $100 - $130 and which truly provide adequate performance. To enable the power within new highend graphics card like the Radeon 7970 or Nvidia 680, we would need a total new architecture, unified memory where the gpu can unleash its full and True potential. Now, we are probably not using more than 40% of that power, due to the architecture in pc`s in general. Her er kilden: http://www.xbitlabs....ory_Report.html Det er her snakk om en APU, og det er båndbredden til framebuffer som er problemet her, ikke båndbredde eller latency mellom GPU og CPU. En av de store flaskehalsene for skjermkort på PC er Direct3D. Det er svært sjelden at skjermkort blir 100% belastet på alle regneenhetene, nettopp fordi det er variasjoner i scenekompleksiteten, AMD og Nvidia designer også skjermkortene sine med høyere fillrate og shaderytelse enn de kan vise i praksis av denne grunn. Gpu må vente på cpu skal gjøre seg ferdig med alt som påvirker hvordan bilde skal se ut, dvs å sette scenen. Nei. Paralellkjølring av cpu og gpu er kun mulig i et oppsett med alt minne i en bulk, altså unified. Gpu vil i realiteten ha dårlig tid. Godt under et sekund, kanskje 0,2-0,3. Prøv 0.017 sekunder så kan vi begynne å snakke. Gpu er altfor spesialisert til å gjøre alt på egen hånd. Absolutt Tester kan si at dette vil ikke merkes uansett, men realiteten er at GPU ikke er i nærheten av sitt sane potensiale vi kunne hatt. Absolutt. I tillegg bruker ikke spillutviklere nok penger til virkelig å grave i dypet av hardwaren, og få ut det beste. Dette hadde kostet milliarder under utvikling, og enda mer i etterkant om man skulle hatt noen form for bakoverkompatibilitet. Det er ikke praktisk mulig å skrive assembly for hver enkelt GPU med hver kombinasjon av funksjonelle enheter. Se hva eks PS3 gjorde med Uncharted 3...alt dreier seg egentlig også hvor mye støtte/budsjett nye spill har. Så du mener altså at vi skal droppe Direct3D9/10/11, og skrive assemblykode for de 100 mest brukte GPUene i dag, og også oppdatere spillet med støtte for de neste tre generasjonene med GPUer? Industrien er ikke tjent med dette på noen måte. Dessuten er internminne på skjermkort for lite enda standard, til å kunne spy ut langt mer høyoppløselige textures enn hva vi ser nå. Ps4 gjorde en ting rett der, med 8gb. Jeg har enda til gode å se et spill som faktisk klarer å nyttegjøre seg 2GB VRAM på fornuftig vis, så hva er belegget ditt for at 2/3GB VRAM er for lite? Endret 22. mars 2013 av arni90 3 Lenke til kommentar
**dp** Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 nok kjedelig prat gutter.. Titan det skal snakkes om her! legger ved noen bilder 3 Lenke til kommentar
kalleklovn12 Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 Snakk om at det har brent godt i lommeboken **dp** Lenke til kommentar
Woltox Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 nok kjedelig prat gutter.. Titan det skal snakkes om her! legger ved noen bilder Og det trekker hvor mange Watt under load? Lenke til kommentar
Nizzen Skrevet 22. mars 2013 Forfatter Del Skrevet 22. mars 2013 Og det trekker hvor mange Watt under load? Det står i toppen av denne siden Lenke til kommentar
kalleklovn12 Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 Og det trekker hvor mange Watt under load? 1375 Lenke til kommentar
**dp** Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 Snakk om at det har brent godt i lommeboken **dp** er redd jeg ikke eier dette - bare for test Lenke til kommentar
Woltox Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 Hvilket Titan kort annbefaler folket når det gjelder pris/ytelse ? Lenke til kommentar
**dp** Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 Hvilket Titan kort annbefaler folket når det gjelder pris/ytelse ? alle er helt like - samme hvilket du kjøpet Lenke til kommentar
N o r e n g Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 Hva i alle dager har pris/ytelse å gjøre med GTX Titan? Det er som å vurdere en Hummer H2 ut fra drivstoffforbruk. Lenke til kommentar
Simkin Skrevet 22. mars 2013 Del Skrevet 22. mars 2013 Hvor blir det av Haswell-E med 10+ kjerner, x99 hovedkort og DDR4. Føler at det blir litt dumt å kjøpe 2xTitan nå men det frister veldig. Først får da Ivy-E komme........ Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå