Gå til innhold

Geforce GTX 9xx Tråden


Anbefalte innlegg

Videoannonse
Annonse

 

http://wccftech.com/amd-r9-290x-fast-titan-dx12-enabled-3dmark-33-faster-gtx-980/

 

Radeon gir nok bedre ytelse i DX12, da kjernen er bygget nettopp på dette! AMD og microsoft samarbeider også ang mantle sine funksjoner! Mantle er noe stort, som andre aktører høster goder av! OpenGL blir vulkan, som er basert på mantle^^

Har vi sett noen spill tester? Nei. :p

 

 Ikke i denne linken, men svarene er omtrent det samme- 33-40% favør AMD! Denne linken sier 33%, noe som er det minste jeg har sett så langt! Første spillene kommer før jul, mulig vi får mange tester løpet av sommeren/høsten...

Lenke til kommentar

 

 

http://wccftech.com/amd-r9-290x-fast-titan-dx12-enabled-3dmark-33-faster-gtx-980/

 

Radeon gir nok bedre ytelse i DX12, da kjernen er bygget nettopp på dette! AMD og microsoft samarbeider også ang mantle sine funksjoner! Mantle er noe stort, som andre aktører høster goder av! OpenGL blir vulkan, som er basert på mantle^^

Har vi sett noen spill tester? Nei. :p

 

 Ikke i denne linken, men svarene er omtrent det samme- 33-40% favør AMD! Denne linken sier 33%, noe som er det minste jeg har sett så langt! Første spillene kommer før jul, mulig vi får mange tester løpet av sommeren/høsten...

 

Dette er slike ting jeg ikke tror før jeg ser det. får jo håpe for amd folka

 

#AmdIsForPoorPeople^^ Neida :p

Lenke til kommentar

http://wccftech.com/amd-r9-290x-fast-titan-dx12-enabled-3dmark-33-faster-gtx-980/

 

Radeon gir nok bedre ytelse i DX12, da kjernen er bygget nettopp på dette! AMD og microsoft samarbeider også ang mantle sine funksjoner! Mantle er noe stort, som andre aktører høster goder av! OpenGL blir vulkan, som er basert på mantle^^

På tide å slutte å snakke om ting vi ikke har peiling på. Dette er den samme testen som har blitt linket tusen ganger. Det er en API-test. Selv Futuremark sier den ikke skal brukes til å sammenligne GPUer. Microsoft samarbeider med AMD angående Mantle? Vulkan er basert på Mantle? Hæ?

Lenke til kommentar

Ser ut til å gå bedre etter å ha slettet driverene med Guru sin greie, fant visst rester av far sitt 780Ti (Lånte det for en stund siden) og 8-9 stk 980 rester^^

 

Folder nå på 1575Mhz. :)

 

Flott, fornøyd da? Fine temperaturer?

 

Grunnen til at jeg tenkte det ville være lurt å kjøre CPU på stock når man prøver å finne begrensningen til GPU er at hovedkortet trekker mye mer strøm når CPU er overklokket, og det kan ha en innvirkning på resultatene. Nå har jo du krem PSU, så det er kanskje ikke mye å bekymre seg for. Men i en verden der ting ikke alltid fungerer som det skal kan det være greit å fjerne så mange potensielle feilkilder som mulig.

  • Liker 1
Lenke til kommentar

http://wccftech.com/amd-r9-290x-fast-titan-dx12-enabled-3dmark-33-faster-gtx-980/

 

Radeon gir nok bedre ytelse i DX12, da kjernen er bygget nettopp på dette! AMD og microsoft samarbeider også ang mantle sine funksjoner! Mantle er noe stort, som andre aktører høster goder av! OpenGL blir vulkan, som er basert på mantle^^

Hvis vi betrakter ren regnekraft, så R9 290X ha 5632 GFlop/s mot GTX 980s 4612 GFlop/s (dvs. 22% mer). Selv om AMD skulle forbedre driverne sine betraktelig så tviler jeg på at R9 290x blir hele 33% bedre i generell ytelse.

 

Det er ikke utenkelig at AMD får noen fordeler i Direct3D 12, spesielt med mange enkle operasjoner. Men dette er ikke et uttrykk for at GCN er bedre designet, tvert imot. Nvidias GPUer er designet for avansert compute-funksjonalitet, hvorav omtrent ingenting av dette benyttes til spill i dag. Som spille-GPUer kan vi dermed si at med dagens APIer har Nvidia "kastet bort" mye ressurser på funksjonalitet spill ikke bruker. Så lenge vi bruker slike APIer(inkl. Direct3D 12) så kan AMD utnytte med å bygge langt enklere GPUer som blir mer effektive per transistor på enkle operasjoner. Direct3D 12(og Mantle og Vulkan) er ikke designet for å ta i bruk ny avansert GPU-funksjonalitet (som kun Nvidia har), men fokuserer kun på å redusere kostnaden av å programmere GPUer på gamlemåten; som er å sende en rekke API-kall for hvert objekt som skal manipuleres.

 

Enten det er snakk om Direct3D, OpenGL, Mantle eller Vulkan så opererer de med såkalte "draw calls". Se for deg det minste enkeltobjektet et spill skal tegne, det kan være en busk, en patron eller en del av et landskap, heretter refert til som et objekt. Når et objekt skal tegnes, så gjøres en rekke API-kall for å fortelle hvilke teksturer som skal brukes, hvilken mesh og en rekke andre parametre som forteller GPUen hvordan det skal tegnes. Et API-kall er en instruks som går fra spillet til driveren og så videre til GPUen.

 

Flere av dere her vet at hastigheten til en CPU har en viss innvirkning for GPU-ytelse, og dette er pga. kostnadene av API-kall. Hvis CPUen din er for treg til å sende slike kall, kan altså GPUen kaste bort en del tid på tomgang. Som dere forstår har altså kostnaden av et API-kall direkte innvirkning på ytelsen. Både Direct3D 12, Mantle og Vulkan prøver å forbedre dette med å redusere kostnaden av API-kall, som betyr at CPUen bruker mindre tid per instruks og GPUen kan utnyttes bedre*. Når overheaden av å tegne ett objekt går ned betyr det at vi kan tegne flere objekter enn før, og det er akkurat dette som menes med API overhead i benchmarks. Det er viktig å forstå at gevinsten med lavere overhead er avhengig av hvor mye overhead du har fra før. Hvis du tegner få store objekter er overheaden lav, og da blir gevinsten av Direct3D12/Mantle/Vulkan lav. Tegner du mange små objekter er overheaden i dag høy, og da blir gevinsten av Direct3D12/Mantle/Vulkan noe større. Vi må derfor aldri tro at målinger av ren API-overhead kan oversettes til forbedringer i spillytelse, siden det er svært forskjellig hvilke objekter spill tegner og hvordan.

 

Og dette er da vel og bra, selvsagt ønsker vi alle lavere overhead. Men saken er at dette kunne vært gjort for 10 år siden. Direct3D12/Mantle/Vulkan er altså ikke noe ny funksjonalitet, men avskrelling av noe unødvendig vi har gjort i alle år. Dette er altså ikke en teknisk nyvinning, men en lavthengende frukt som gir oss en engangsforbedring. Vi kan med andre ord ikke forvente en tilsvarende forbedring om 2-3 år, siden vi allerede har skrellet av overheaden omtrent så langt det går. Nå vil vi i stedet stange i andre hindringer, som CPU-ytelse, PCIe-buss osv. Så når fremtidige GPUer kommer som Pascal, Volta osv. så vil ikke dette hjelpe oss videre til bedre GPU-utnyttelse.

 

La meg raskt ta et tilbakeblikk for å forklare tidligere tekniske forbedringer av GPU-programmering. Tilbake i "gamledager" så var GPUer dumme og vi programmerte de med å sende API-kall for hver vertex** som skulle tegnes. Så optimaliserte vi det med å sende hele meshes i én operasjon. Etter hvert ble GPUene så avanserte at de fikk mulighet til å kjøre kode selv, slik at vi slapp å sende mange API-kall for skyggelegging, og dette utgjør forbedringene vi så i Direct3D 8, 9 og 10. GPU-programmer("shadere") fikk muligheten til å manipulere vertex-posisjoner så vi kunne lage bølgeffekter og lignende. Med Direct3D 10 kom geometry shaders som tillot blant annet generering av vertex på GPUen. Dette muliggjorde også "tiling" av objekter, slik at mange like objekter kunne tegnes med ett enkelt API-kall: instancing. Beslektet med dette kom Direct3D 11 med tessellation som optimaliserer ved at mer data kan genereres direkte på GPUen og dermed sparer minne. Dette kan også brukes smart til å fjerne unødvendig data i det fjerne for å spare ressurser. Og så har vi Direct3D 12 da, som egentlig ikke byr på noe stort nytt annet enn en finpussing som skreller av overhead. Direct3D 12 har så lite nytt at det vil fungere på to år gammel maskinvare (I teorien kan det fungere på all Direct3D 11-maskinvare hvis de vil). Det er med andre ord den største latskapen på lengre tid, og hvor lenge skal det gå før vi får det neste?

 

Direct3D12/Mantle/Vulkan er ikke et betydelig steg fremover i GPU-programmering, det er i beste fall et steg sidelengs og en hvilepute for produsentene. Noen av dere her har sikkert programmert C en gang i tiden og vet hvordan data manipuleres der direkte. Slik er det derimot ikke å programmere en GPU, og det er noe mange reagerer på når de blir introdusert for det. Som nevnt fungerte de første GPUene ved at alle instruksjoner skjedde via API fra CPUen, og i dag er dette noe mer effektivt og vi kan programmere deler av jobben GPUen gjør gjennom GPU-programmer("shadere"). Men hovedproblemet vedvarer, all styring skjer fremdeles via CPUen og den endeløse rekken av API-kall. F.eks. om du skal har et brett med 10.000 objekter så må du gjøre mye kompleksitet for å finne ut hvilken av de som skal tegnes, og deretter sende mange API-kall for hvert av de. Og selv om du så bruker GPUen til å beregne dette, så må du fremdeles tilbake til CPUen for instrukser om hva som skal tegnes. Du trenger ikke være programmerer for å forstå at det er veldig bakvendt at en enormt kraftig GPU skal hele tiden mase på mer arbeid fra CPUen, og at det da ikke er nok bare å optimalisere tidsbruken på overføring av instrukser.

 

Og nå kommer omsider poenget mitt; hva om vi rett og slett eliminerer mer av API-kallene og lar GPUen jobbe mer effektivt? Og det finnes allerede, men det er kun Nvidia som jobber med det. Det første er Bindless Graphics, som blant annet tillater GPU-programmet å aksessere vertex- og teksturdata direkte uten egne API-kall fra CPUen. Og igjen, ikke-programmerere kan forstå det: hver gang du tegner objekt #54938 så vil det som regel ha samme mesh og samme tekstur, og da er det unødvendig at CPUen bruke flere API-kall på si noe som objektet på GPUen kan inneholde selv. I tillegg har det en ennå større bonus, for når denne dataen er lagret på GPUen og GPUen får administrere L2-cache selv(altså ikke APIet), så kan GPUen jobbe mer effektivt fordi den kan cache tekstur- og vertex-data til den trengs. Og ennå bedre, Nvidia har laget mer funksjonalitet som kan tegne tusenvis av objekter med ett enkelt API-kall: (1)(2). Alle burde klare å forstå at dette er langt viktigere enn optimaliseringene til Direct3D12/Mantle/Vulkan. Dessverre er de fleste motvillig til å bli med på dette inntil videre siden de har enkle GPU-design. Litt av funksjonaliteten er implementert av AMD, men ellers står Nvidia alene. Og dette er noe av det som irriterer meg med Khronos som lager OpenGL og Vulkan, ikke bare AMD og Intel er bremseklosser, men også selskaper som ARM holder fokuset tilbake på lite avanserte GPUer. Jeg håper at i det minste AMD vil om et par år ta opp denne funksjonaliteten og få den med i de neste APIene. Dessverre er Direct3D12/Mantle/Vulkan allerede utdatert før de er ut av døren. Funksjonaliteten som dette avsnittet omtaler er dessverre heller ikke inkludert i Vulkan, men blir et valgfritt tillegg som i OpenGL. Jeg synest det er fryktelig leit fordi dette er noe Nvidia allerede har i dag, men ingen spill vil bruke det før AMD får ut fingeren.

 

*) Rent teknisk oppnås dette ved å kutte ut en del feilsjekking som normalt gjøres mellom hvert API-kall. Dette er altså fjerning av en slags "sikkerhetsmekanisme" og overlater ansvaret til utvikleren. Dette er altså en ren "unødvendig" overhead som vi har hatt i alle år.

**) For hver vertex kunne det være flere API-kall, f.eks. ved bruk av teksturer, normaler osv.

  • Liker 6
Lenke til kommentar

 

 

Trenger ikke bakplater på 970 strix, ikke noe å kjøle der bak uansett. :) Det blir endel penere da.

Kan en ikke bruke original bakplatene da? Eller er de mye lenger enn selve kretskortet?

Nei, de passer dessverre ikke. Har du kjøpt blokker allerede eller?

Lenke til kommentar

Aller først, kjempebra post efikkan. Du forklarer veldig godt hva som er problemet her...

 

Og nå kommer omsider poenget mitt; hva om vi rett og slett eliminerer mer av API-kallene og lar GPUen jobbe mer effektivt? Og det finnes allerede, men det er kun Nvidia som jobber med det. Det første er Bindless Graphics, som blant annet tillater GPU-programmet å aksessere vertex- og teksturdata direkte uten egne API-kall fra CPUen. Og igjen, ikke-programmerere kan forstå det: hver gang du tegner objekt #54938 så vil det som regel ha samme mesh og samme tekstur, og da er det unødvendig at CPUen bruke flere API-kall på si noe som objektet på GPUen kan inneholde selv. I tillegg har det en ennå større bonus, for når denne dataen er lagret på GPUen og GPUen får administrere L2-cache selv(altså ikke APIet), så kan GPUen jobbe mer effektivt fordi den kan cache tekstur- og vertex-data til den trengs. Og ennå bedre, Nvidia har laget mer funksjonalitet som kan tegne tusenvis av objekter med ett enkelt API-kall: (1)(2). Alle burde klare å forstå at dette er langt viktigere enn optimaliseringene til Direct3D12/Mantle/Vulkan. Dessverre er de fleste motvillig til å bli med på dette inntil videre siden de har enkle GPU-design. Litt av funksjonaliteten er implementert av AMD, men ellers står Nvidia alene. Og dette er noe av det som irriterer meg med Khronos som lager OpenGL og Vulkan, ikke bare AMD og Intel er bremseklosser, men også selskaper som ARM holder fokuset tilbake på lite avanserte GPUer. Jeg håper at i det minste AMD vil om et par år ta opp denne funksjonaliteten og få den med i de neste APIene. Dessverre er Direct3D12/Mantle/Vulkan allerede utdatert før de er ut av døren. Funksjonaliteten som dette avsnittet omtaler er dessverre heller ikke inkludert i Vulkan, men blir et valgfritt tillegg som i OpenGL. Jeg synest det er fryktelig leit fordi dette er noe Nvidia allerede har i dag, men ingen spill vil bruke det før AMD får ut fingeren.

Samme problemstilling har vi innenfor mitt felt som er GPGPU programmering (bruk av GPU til andre oppgaver en grafikk). Jeg jobber primært med forskjellige multimedia arbeidslaster. Her har Nvidia sitt egne API som heter CUDA, som nå snart lanseres i 7. versjon. CUDA bruker LLVM som compiler backend, og har blitt et ganske åpent API. Her er også Intel og AMD "bremseklosser" når det gjelder OpenCL. Det er liten interesse for å inkludere avansert funksjonalitet som allerede er på Nvidia sine brikker. OpenCL 1.x var i bunn og grunn en klone fra CUDA 2.0. Det eneste de viser reel interesse for å gjøre er tettere integrering mellom CPU og GPU, noe som i mange tilfeller er en årlig ideé. Når man aktivt skal dele resurser mellom en x86 CPU og en GPU dukker problemer med cache coherency opp, og det kommer til å begrense skaleringen.

 

Men, dette ble off-topic...

 

Når det gjelder DX12 så vil jeg på det sterkeste fraråde og trekke konklusjoner, før både Windows 10, DX12 API og grafikkort drivere er ute av beta-statidet. Den testen du reffererer til sammenligner ytelse på API'er, og ikke grafikkort, så den er ikke egnet.

 

AMD og microsoft samarbeider også ang mantle sine funksjoner! Mantle er noe stort, som andre aktører høster goder av! OpenGL blir vulkan, som er basert på mantle

Du har nok historien din feil vei rundt... DX12 "designet" av Microsoft sammen med Xbox One. Microsoft ønsket et at API til XB1 var så likt PC som mulig for å kunne få en fordel i forhold til PS4. Problemet med SoC til XB1 (og PS4) er at det er åtte ganske svake CPU-kjerner der. Overhead i API måtte derfor reduseres, det var målet med DX12. AMD som designer av SoC i XB1 fant ut at de skulle slippe samme ideene i form av et properitært API, også kjent som Mantle, da problemet til AMD er at de sammenlignet med Intel har svake CPU-kjerer i demmes APU'er for PC. De ville derfor få en fordel i flere spill. Mantle ble derfor pushet ut, men det ble kun tatt i bruk av noen få spill.

 

Selv om Vulkan og DX12 ligner på Mantle da begge har som mål å fjerne API overhead, så er ingen av de basert på Mantle.

Lenke til kommentar

Fornøyd så langt, skal stikke og sjekke om maskinen forsatt folder på den klokken (foldet siden igår) :)

 

EDIT: Folder forsatt på 1575Mhz, nå hr det foldet i 12 timer elns, kan vel si det er stabilt. 

 

Skal teste mem på 2000Mhz, og om det er ustabilt ned til 1900Mhz, er det stabilt så tar jeg ned vcore på Cpu. 

 

Psu er konge, var jo en gave, mitt valg hadde vært en AX860 elns istedenfor. :p

OG dette er da med Cpu på 4.5Ghz .1.2V mener jeg. Som er en ganske grei 24/7 klokk, merker kun et par grader forskjell på 4.5Ghz og 4.625Ghz. Kan alltids skru opp til 4.875Ghz om jeg vil benche uansett^^

 

EDIT2: Da var det ikke så dårlig likavell da, har aldri tenkt på gml drivere som kan fucke opp ting heller :p

EDIT3: Temp er 50-52¤C på kortene, og Cpu er oppe i high 50¤s siden folding på nvidia bruker 1 kjerne hvert kort. så ganske fornøyd nå^^

Endret av Snusmumr1kk1
Lenke til kommentar

 

Microsoft samarbeider med AMD angående Mantle? Vulkan er basert på Mantle? Hæ?

 

Vulkan ville ikke eksistert foruten Mantle. Mantle kommer ut av Vulkan? Eller lava? Eller? Skal jeg bare gå å legge meg? :p

 

God natt! :D

 

Det API'ene har til felles har HKS allerede nevnt, så det trenger jeg ikke :p

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...