TKongen Skrevet 25. mai 2016 Del Skrevet 25. mai 2016 Her MÅ det være en nVidia fanboy som har benchet http://www.phoronix.com/scan.php?page=article&item=dota-2-vulkan&num=2 Dette er jo Linux da, så da blir jo tallene ofte veldig annerledes enn det vi ser i Windows. Lenke til kommentar
Knutgrus Skrevet 25. mai 2016 Del Skrevet 25. mai 2016 Her har du en enkel 5-minutters video om Asynch Compute, som jeg håper du tar deg tid til å se for å lære mer om det: Jeg trør inn på et tema jeg langt fra vet nok om... Men er det noe som skurrer med den videoen eller? Annet enn den forferdelige lyden? Tok et par skjermdumper: 1: Feilaktige antagelser fra tidligere: Med konklusjonen: Blir ikke dette selvmotsigende? Eller har jeg totalt missforstått? Lenke til kommentar
Malvado Skrevet 25. mai 2016 Del Skrevet 25. mai 2016 1 Samtidig, er Async Compute ferdig og gjort riktig? Hvorfor er da Async Compute noe som senker ytelsen for alle Nvidia kort? I det minste burde det ha ingen effekt. Det er åpenbart at det er mer å gå på her, og at vi må vente med konklusjonen til vi får se spill som er bygd med dette fra bunnen av. Og uansett om vi vet AMD kommer til å gjøre det bedre, så er spørsmålet hvor mye bedre? Det vil jo være opp til de som lager spillet. Tror du f.eks at en 1 ukes konsoll port fra Ubisoft kommer til å ha bra Async Compute optimalisering? 2 Jeg er enig i at Async Compute er fremtiden og veldig bra, samtidig stiller jeg meg litt tvilende til hvor mye det generelt vil gi i nær fremtid. Jeg har vel heller aldri sagt at testene ikke gjelder, og i så fall så har jeg ordlagt meg feil og ikke fått skrevet det jeg mener. Det jeg mener er at de er indikatorer. Jeg har sagt AotS er ubrukelig. Og i seg selv så er det det, og det står jeg med. Hvis du koder spillet spesifikt for AMD kort, er det ingen overraskelse når det gjør det bedre på AMD HW. Vi har mange eksempler med det fra Nvidia leiren også. Hvis vi hadde fått et nytt spill av typen Project Cars i DX12 for NVidia, så hadde det ikke betydd at NVidia var bedre i DX12 av den grunn. Jeg er ikke uenig i at AMD sannsynligvis er bedre i DX12. Jeg er uenig i at AMD er bedre i DX12. Stor forskjell. Folk går rundt og påstår at AMD er tydelig bedre enn NVidia i DX12, basert på 3 spill. 1 av spillene har det jo som patch, et er jo sterkt knyttet til AMD og DX12 og det siste er bare en standard AMD tittel med DX12 lagt inn på slutten. Det er ikke nok for konkluderende bevis. Spesielt ikke når HC har test som sår tvil om målingene for AotS. Husk at mitt originale innlegg aldri var et svar til noen. Jeg skrev det som et åpent innlegg rettet mot brukere på internet (ikke nødvendigvis dette forumet) som mener AMD er best i DX12, og har ment det siden første AotS benchmark, eller før det tom. I starten var og forskjellen klart større. Nvidia har fått klart bedre drivere for AotS over tid, som igjen bare støtter opp om at AotS er laget i samarbeid med AMD. 3 Jeg har vel heller ikke påstått å være nøytral. I så fall var det feil av meg å påstå det. Det er en god del ting jeg liker bedre ved Nvidia enn AMD. Jeg tror heller ikke mennesker klarer å være skikkelig nøytrale i saker de bryr seg om. Jeg har skrevet ordet objektivt, men det er ikke det samme. Samtidig så har jeg og skrevet positive ting om AMD i det siste. I tråden om Crimson pakken var det mye negativitet, og hvor mange brukere synes det var utrolig bra? Det var ikke mange. En del hadde sunn skepsis til stabiliteten til noe helt nytt, men det var ikke mange som bare likte ideen og var positive pga det. Gode drivere og brukervennlige programmer som GeForce Experience er en av de store grunnene til at jeg liker Nvidia, og med Crimson så har jo AMD fått på plass mye av det samme (litt forksjeller, AMD er bedre på noe, Nvidia på andre ting). Jeg er og veldig fornøyd med at de valgte å lansere budsjettkortene sine og vente med entusiastkortene sine. Endelig så virker det som om AMD tenker litt mer økonomisk og på å selge kort, og mindre på å slå NVidia sitt toppkort i ytelse. Joda, Nvidia tjener nok mye på 1080, men det er så kostbart for AMD å konkurrere med det, og folk vil stort sett kjøpe Nvidia uansett. Ikke verdt det. Angående Gameworks, hva er nøytralt der? Er det galt av meg å like Gameworks? Blir jeg en Nvidia fanboy av det? Blir det galt å mene at Nvidia ikke crippler AMD ytelse? Den grafikkeffekten jeg fortsatt husker best, og liker best er PhysX i Borderlands 2. Noe som forøvrig hadde omtrent lik ytelse om PhysX var på GPU eller CPU med GTX 660 og i5. Og hvorfor kjøpte jeg GTX 660 når AMD hadde bedre price/perf? Fordi GTX 660 var på ganske bra tilbud. Jeg ser heller ikke hvordan det er Nvidia sin feil hvis dev baserer spillet sitt på PhysX eller mye tesselation, som er umulig å deaktivere. Nvidia tilbyr teknologien sin til bruk. Jeg har enda til gode å se Nvidia betale noen for å basere spillet sitt på PhysX. Hvis de gjør er det veldig galt selvfølgelig. Så lenge det ikke skjer er det devsene sin feil. Ser ikke hva Nvidia gjør galt ved å tilby masse teknologier for å være ærlig. Jeg vet at andre synes Gameworks er galt, og jeg forstår hvorfor. Likevel så ser jeg heller ingenting galt med å ikke se problemet med Gameworks uten å være Nvidia fanboy. Jeg ser heller ikke helt hvordan Gaming Evolved titler er så veldig forskjellige i praksis. Disse derimot har jeg ikke sett noen kritisere, samtidig som de samme personene kritiserer Gameworks. Det gir ikke mening for min del. @La Menthe: Vel, siden jeg åpenbart ikke vet noe som helst, så er jeg enig at det er best å avslutte diskusjonen her 1 : Svaret på dette er at det trolig ligger i arkitektur og hvordan Nvidia sine Gpu'er behandler koden som blir sendt til Gpu'en. Siden måten arkitekturen til Nvidia behandler dette blir det lagt i "normal render queue" istedenfor Compute Queue (som er den som brukes av async compute i kort som støtter dette ) . Les gjerne denne artikkelen som utdyper dette enda bedre : http://wccftech.com/asynchronous-compute-investigated-in-fable-legends-dx12-benchmark/ Async Compute is enabled, just not fully being utilized to the greatest extent possible. It’s important to keep in mind that the Fable Legends benchmark is a test using software that’s undeniably in the beta phase. It’s not representative of final performance, and due to the closed nature, it’s not even really indicative of how the actual game will play. As we know, NVIDIA currently doesn’t support Asynchronous Compute fully, or at least the current driver implementation isn’t able to schedule these tasks correctly. Thus it’s been argued that GPU’s with async compute support could, or even should, have a larger advantage. Advertisements Yes, AMD Radeon R9 Fury Has 3584 GCN Stream Processors - Features Fiji Pro GPU And Launching With A Variety Of Air Coolers Microsoft and Lionhead Studios have assured us that asynchronous compute is indeed activated and on for the test, across the board, and that it doesn’t turn off based on the presence of a card that doesn’t support it. They’ve also given us a statement on just how of the compute pipeline is used. Dynamic lighting and even using async compute for instanced foliage. In essence, they’ve told us that compute is being used in rather healthy doses. We’ll see just how much of the compute queue is actually used as opposed to what Lionhead says is being used. For cards that might not support it, however, those tasks are simply put into a the normal render queue instead of being put into a compute queue. How does this effect performance? Unfortunately it doesn’t quite scale linearly, and as we’ll see shortly, async compute is indeed working, though even on AMD, very little of the workload is being offloaded to the available ACE’s, and only one ACE is actually being used at that. Read more: http://wccftech.com/asynchronous-compute-investigated-in-fable-legends-dx12-benchmark/#ixzz49hZpPWY9 2 : Dette er en ganske grov misforståelse og så lenge som du har holdt på med diskusjonen rundt skjermkort burde du ha satt deg litt mer inn i hvorfor dette skjer. Den enkleste forklaringen ( som også står over i linken ) er at om arkitekturen ikke støtter det så vil de bli lagt i kø og utført når det blir ledig kapasitet, derfor vil også en kjappere Gpu i praksis kunne utføre denne langt raskere mens en Gpu som støtter AC vil kunne utføre slike arbeidsoppgavere fordelt på maskinvaren uten at de nødvendigvis trenger å stå og vente på at en konkret del av Gpu'en er ledig ( siden arbeidsfordelingen skjer over hele linja , som er en grov forklaring for å simplifisere ) , noe som også betyr at de ofte kan gjøre mer arbeid selv om hastigheten er lavere. Lionheads Studios har også fortalt litt mer om hvordan de brukte dette i Fable Legends ( som vi får håpe dukker opp en eller annen gang ) : http://wccftech.com/lionhead-dx12-features-fable-legends/ 3 Nvidia tilbyr teknologiene sine fordi det gir dem et fortrinn om det brukes i spillet , eksempelvis les EULA'en på Physx , explicit : Any PC or Apple Mac computer running NVIDIA PhysX software executing on the primary central processing unit of the PC only; A: You will include a reference to the PhysX SDK and NVIDIA in any press releases or press coverage for such Game, Game Engine, or Application that incorporates the PhysX SDK and will identify NVIDIA as the provider of the physics engine Page 5 of 7 with the following: "PhysX Technology provided under license from NVIDIA Corporation. © 2002-2011 NVIDIA Corporation. All rights reserved." (or such other term or phrase as indicated by NVIDIA from time to time). B: For Physics Applications that incorporate the PhysX SDK or portions thereof, the PhysX by NVIDIA logo (send email to [email protected] to request logos and logo usage guidelines) must appear accompanied with the following text: “NVIDIA® and PhysX® are registered trademarks of NVIDIA Corporation and are used under license.": a. on the back cover of the instruction manual or similar placement in an electronic file for the purpose of acknowledgement/copyright/trademark notice; b. on external packaging; c. during opening marquee or credits with inclusion of “PhysX by NVIDIA”; d. must appear on title marketing feature list with a specific call-out of PhysX Technology e. on the credit screen; and f. in the “About” or “Info” box menu items (or equivalent) of all Physics Games or Applications using any portion of the PhysX SDK. C: Upon request, provide a quote citing the Licensee’s integration of the PhysX SDK into the Game or Application for NVIDIA’s use in press materials and website. Except as expressly set forth in this Section 6, or in a separate written agreement with NVIDIA, you may not use NVIDIA's trademarks, whether registered or unregistered, in connection with the Physics Application in any manner or imply that NVIDIA endorses or otherwise approves of the Physics Application(s) or that you and NVIDIA are in any way affiliated. Your use of the NVIDIA name under this Agreement does not create any right, title or interest in the NVIDIA name or any NVIDIA trademarks and all goodwill arising from your use inure solely to the benefit of NVIDIA. Så med andre ord skal man reklamere for Nvidia om spillet inkluderer PhysX og det er kun CPU som kan brukes til PhysX om et Nvidia kort ikke er tilstede , selv om det teoretisk burde la seg gjøre for Amd skjermkort å bruke PhysX også... Før Nvidia tok knekken på Ageia ved oppkjøpet sitt så hadde Physx et stort potensiale , det kjipe er at i steden for å ha et kraftig fysikk kort dedikert til dette ( som i dag er trolig helt bortkastet med tanke på prosseseringen som Gpu'er i dag kan gjøre , noe jeg biter meg i leppa for da jeg virkelig trodde på en god fremtid for physx dedikerte kort ) så benytter man seg av skjermkortet for å gjøre dette og det er jo her Nvidia tok i bruk sitt eierskap for å fremme sine egne produkter som hadde full PhysX støtte... Selvsagt er ikke Nvidia alene om denne praksisen , problemet er at mens AMD har vært flinke med å ikke ha helt "låste" løsninger som faktisk kan bli tatt i bruk av konkurrentene, så har Nvidia fremmet sin markedsposisjon og makt til å låse ytelsemessig en del funksjoner som eksempelvis Hairworks helt fullstendig til Nvidia kort der Amd sine kort får et kraftig ytelsetap om det aktiveres , heldigvis finnes det måter å få dette til å fungere mer optimalt . Jeg prøver ikke å si at Nvidia er verre enn Amd her da de begge to har definitivt sine idiotiske måter å gjøre ting på for å såre konkurrenten(e) , men det er tydelig at en del av det Nvidia har gjort har vært ren sabotasje mens overnevnte Async Compute har med hardwaren å gjøre fremfor noe annet. Lenke til kommentar
TKongen Skrevet 26. mai 2016 Del Skrevet 26. mai 2016 Nvidia har jo selv sagt at de støtter Async Compute. Jeg kan være helt med på at Nvidia sine kort ikke er laget for det, og Async Compute enten ikke hjelper eller gir 1% eller noe slik ubetydelig. Det jeg ville frem til er at de nå bruker lengre tid enn før ved å spesifisere noe av workloaden som Compute workload. Den burde jo klare å utføre oppgaven like kjapt i det minste. Og hvis det faktisk er slik at async legges i vanlig render queue, og ikke er skikkelig støttet på en god måte, så er det Nvidia i så fall ikke sant. Eller en slags sannhet. Som at Async Compute kjører på Nvidia kort og, men det gir ingen ytelsesfordel. 2: Jeg tror ikke vi snakker om det samme her. Det jeg snakker er hvor bra devsene faktisk kommer til å utnytte dette. Veldig fint om Async Compute er bra og alt, og du kan forbedre ytelse med det, men det må og kodes slik at det skjer. Så det er min spekulasjon angående det. Jeg kan selvfølgelig ta helt feil, det er ikke det at jeg tviler på AMD her, jeg bare har ikke så stor tro på alle selskapene som lager spill. Vi har hatt en del dårlig optimaliserte spilltitler. 3: Ja, Nvidia tilbyr det ikke for å være snille akkurat. Det er jo tydelig og klart for å promotere seg selv, og få fortrinn i spill. Det er sånn sett en kjip markedsstrategi. Samtidig er det noe som gjør at disse teknologiene kommer i spill. Kan godt være spill hadde sett dårligere uten det? Mulig at PhysX kort hadde vært en ting, men det kan og være Nvidia reddet PhysX med å integrere dem inn i GPU. Ikke lett å si. Jeg mener hvertfall at det er flere perspektiver på denne saken, uten at en av dem er riktig. Mulig jeg bare er en Nvidia fanboy som ikke innser det selv, men det er hvertfall det jeg synes. Lenke til kommentar
TKongen Skrevet 26. mai 2016 Del Skrevet 26. mai 2016 (endret) Ellers gjør TressFX det samme som Hairworks med ytelse. Så det er ikke som om AMD og bruker lignende strategier, selv om det er i langt mindre grad. Endret 26. mai 2016 av TKongen Lenke til kommentar
Malvado Skrevet 26. mai 2016 Del Skrevet 26. mai 2016 Nvidia har jo selv sagt at de støtter Async Compute. Jeg kan være helt med på at Nvidia sine kort ikke er laget for det, og Async Compute enten ikke hjelper eller gir 1% eller noe slik ubetydelig. Det jeg ville frem til er at de nå bruker lengre tid enn før ved å spesifisere noe av workloaden som Compute workload. Den burde jo klare å utføre oppgaven like kjapt i det minste. Og hvis det faktisk er slik at async legges i vanlig render queue, og ikke er skikkelig støttet på en god måte, så er det Nvidia i så fall ikke sant. Eller en slags sannhet. Som at Async Compute kjører på Nvidia kort og, men det gir ingen ytelsesfordel. 2: Jeg tror ikke vi snakker om det samme her. Det jeg snakker er hvor bra devsene faktisk kommer til å utnytte dette. Veldig fint om Async Compute er bra og alt, og du kan forbedre ytelse med det, men det må og kodes slik at det skjer. Så det er min spekulasjon angående det. Jeg kan selvfølgelig ta helt feil, det er ikke det at jeg tviler på AMD her, jeg bare har ikke så stor tro på alle selskapene som lager spill. Vi har hatt en del dårlig optimaliserte spilltitler. 3: Ja, Nvidia tilbyr det ikke for å være snille akkurat. Det er jo tydelig og klart for å promotere seg selv, og få fortrinn i spill. Det er sånn sett en kjip markedsstrategi. Samtidig er det noe som gjør at disse teknologiene kommer i spill. Kan godt være spill hadde sett dårligere uten det? Mulig at PhysX kort hadde vært en ting, men det kan og være Nvidia reddet PhysX med å integrere dem inn i GPU. Ikke lett å si. Jeg mener hvertfall at det er flere perspektiver på denne saken, uten at en av dem er riktig. Mulig jeg bare er en Nvidia fanboy som ikke innser det selv, men det er hvertfall det jeg synes. 1 : For å legge kortene på bordet og gi deg muligheten til å se forskjellene på hvordan dette er implementert via GCN (Amd) og Pascal Preemption så anbefaler jeg at du leser denne : http://wccftech.com/nvidia-gtx-1080-async-compute-detailed/ 2 : Det er en veldig bra funksjon som om brukt riktig kan utnytte skjermkortet langt mer der det behøves. Mulighetene er mange og det aller viktigste til syvende og sist er en bedre opplevelse for sluttbrukeren. Jeg tror faktisk at både Async og andre funksjoner kommer til å bli tatt i bruk av devs da det gir bedre ytelse i spillene og åpner for mange muligheter , legger man til at Amd nå¨også har kommet med "Shader Intrinsic Functions' For GPUOpen" så ser man at ballen nå virkelig har begynt å rulle for selskapet og vi kan virkelig begynne å lure på hvordan dette vil påvirke de kommende spillene på pc platfomen og porteringene fra konsoll. 3 : Det finnes svært mange gode alternativer til PhysX , Havok , Vortex , AGX multiphysics for å nevne noen og der Havok er trolig det som blir brukt mest i spill på både pc og konsoller. I forhold til Nvidia sin propiertære løsning ( Hairworks) er TressFX " Released as part of GPUOpen AMD TressFX is free and open-source software subject to the MIT License. , A competing solution offered by Nvidia is HairWorks which is part of their Nvidia GameWorks suite, and is proprietary in nature. " Lenke til kommentar
Nizzen Skrevet 26. mai 2016 Del Skrevet 26. mai 2016 Fra en kjent person: - "Nvidas G-Sync er ondskap, og AMDs FreeSync er gratis/fritt(avhengig av vindretning)", når virkeligheten er at de er like proprietære- "AMD fant opp Direct3D 12 og Vulkan", selv om Direct3D 12 ble påbegynt i 2010 og Vulkan er basert på en helt annen arkitektur.- "Mantle er åpent", eeeh nei.- "AMD har gode åpne drivere". De som påstår dette har neppe prøvd de. Der er merkverdig at de fleste som påstår dette spiller i Windows(!), hvor det ikke finnes en "åpen" driver en gang!- "AMDs GPUOpen er i kontrast til Nvidias GameWorks". Begge har åpne og lisensierte kildekoder, Nvidia har utvilsomt mest åpent. Lenke til kommentar
Christian Thork Skrevet 26. mai 2016 Del Skrevet 26. mai 2016 http://www.eteknix.com/aida64-leaks-entire-nvidia-pascal-lineup/ Lenke til kommentar
TKongen Skrevet 26. mai 2016 Del Skrevet 26. mai 2016 Så med Maxwell og eldre så er det egentlig så vanskelig å få til async compute at det er bedre å bare deaktivere det egentlig? Siden du må sette oppgaver til blokker i GPU ol, og har ikke noe hjelp, om jeg forstår det riktig? Pascal derimot gjør at GPUen kan pause opp og gjøre en viktig compute oppgave og så fortsette, som gjør at den klarer seg i async compute workloads, men er ikke i nærheten av det AMD har. Om jeg har forstått dette riktig? Har ikke sett så mye imponerende PhysX i det siste, men det var en periode PhysX effekter så mer imponerende (sier ikke det er bedre) enn alt annet på markedet. Hvis jeg ser PhysX nå så bryr jeg meg ikke. Som du sier, finnes mange konkurrenter, og folk oppnår flotte ting både med og uten PhysX. Ellers er det allerede linket kilde til at Hairworks er åpent og tilgjengelig, og de fleste Nvidia teknologier er. Er AMD sin åpne kildekode bedre enn Nvidia sin? Hva gjør Hairworks proprietær? Og Når TressFX kom ut i starten til Tomb Raider så cripplet det Nvidia sin ytelse på linje med Hairworks. Er det glemt? Lenke til kommentar
Malvado Skrevet 26. mai 2016 Del Skrevet 26. mai 2016 Du svarer deg selv på mye der Tkongen , så du trenger egentlig bare å lese deg litt mer opp på dette , men ja du har vel nå sett litt hva som ligger i Async Compute og hvorfor Nvidia ikke helt gjør det så bra der. Det er tydelig at med Pascal så ser vi en forbedring , men å konkurrere på samme premisser som Amd på GCN tror jeg blir vanskelig med mindre de endrer på arkitekturen sin, noe jeg tviler på. Uansett så er det sluttresultatet som er viktigst og vi må nok vente litt til før vi får se hvordan dette slår ut i spill , mine antagelser er at det fortsatt vil ta omtrent 6 måneder til får vi kommer til å se et skille om det kommer. Det som er viktig derimot for de som eier Amd kort er at de vil få nytte av teknologiene som kommer da det fortsatt benyttes GCN på de fleste nyere skjermkort som har kommet fra Amd og vi ser jo også at for utviklerne så vil de ha fordelen av at konsollene sin kode vil kunne etter hvert lettere overføres ( og forbedres ) når de går over til PC. Hairworks er en del av Gameworks løsningen til Nvidia og som du sikkert vet propietær Lenke til kommentar
Gjest medlem-135366 Skrevet 27. mai 2016 Del Skrevet 27. mai 2016 nesten 8000kr? hva i ... E ser at dette er et bra og kjappt kort, men nesten 8000? er jo som regel Ti eller Titan priser det :S (titan z trur e kosta ca 10 da det kom) *Founders edition. De billigere versjonen kommer snart. Billige versjonene kommer snart?? Er du så sikker på det? Jeg bare spør. Hvor eksakt har du det fra? Lenke til kommentar
TKongen Skrevet 27. mai 2016 Del Skrevet 27. mai 2016 Da forstår jeg hvorfor Maxwell kort og eldre kan få negativ ytelse i spill med async compute. Merk, jeg synes aldri det var merkelig eller lignende om de ikke fikk noe ekstra ytelse, eller om det bare var rundt 3%. Det jeg synes virket merkelig og uferdig var den negative ytelsen. Selv om NVidia nå med Pascal får samme ytelse som de nye AMD kortene m/async compute, så er det jo sant det du sier om CGN. Alle kort fra 7000-serien og oppover får varierende ytelsesøkning over sine Nvidia motparter i DX 12 spill med async compute (er det frivillig eller noe du må ha i DX 12?) Hairworks er en del av Gameworks, og Gamworks inneholder proprietær programvare. Likevel så ser jeg ikke hvordan Hairworks som er åpen kildekode blir proprietær bare av å være med i en samling med andre teknologier som er. Føler det blir litt som å ha et økologisk eple i en kasse med vanlige epler og si at det eplet nå ikke lengre er økologisk. Jeg vet ikke altfor mye om dette derimot, så jeg skal ikke si at det er slik. Jeg bare lurer på hva som i så fall gjør Hairworks proprietær, da det å være i en samling med annen programvare som er ikke virker som en god grunn for meg. Lenke til kommentar
Malvado Skrevet 27. mai 2016 Del Skrevet 27. mai 2016 (endret) Hairworks er en del av Gameworks, og Gamworks inneholder proprietær programvare. Likevel så ser jeg ikke hvordan Hairworks som er åpen kildekode blir proprietær bare av å være med i en samling med andre teknologier som er. Føler det blir litt som å ha et økologisk eple i en kasse med vanlige epler og si at det eplet nå ikke lengre er økologisk. Jeg vet ikke altfor mye om dette derimot, så jeg skal ikke si at det er slik. Jeg bare lurer på hva som i så fall gjør Hairworks proprietær, da det å være i en samling med annen programvare som er ikke virker som en god grunn for meg. Når det ligger begrensinger i hvordan koden kan brukes og selve kildekoden til Gameworks er låst så betyr det jo at de andre egentlig ikke har mulighet til å se hva den gjør og dermed bruke optimaliseringer i driveren for at dette skal fungere bedre... Orker faktisk ikke å kommentere så mye på Gameworks, det er Nvidia sin store greie som på ingen måte er åpent og som har blitt tatt for å ha prøvd å putte kjepper i hjulene på konkurrentene gang på gang. Om du selv har lyst finnes det mye å lese der ute om dette. Litt lesestoff på Asyncrounous shaders og Dx12 : http://wccftech.com/amd-improves-dx12-performance-45-gpu-asynchronous-compute-engines/ Endret 27. mai 2016 av Malvado Lenke til kommentar
MistaPi Skrevet 27. mai 2016 Del Skrevet 27. mai 2016 TKongen: AoS bruker en vendor ID sjekk og skrur av async compute på Nvidia kort, inkludert Pascal. Dem hadde ikke noe GeForce 1080 kort å teste spillet imot. Jeg kjenner ikke til andre gode eksempler på async compute. Hitman gjør det også veldig sterkt på AMD hardware i DX11. Jeg håper vi kan se async compute for Pascal i AoS om ikke så lenge, samt selvfølgelig i flere spill og forskjellen det utgjør kontra GCN. DX12 muliggjør async compute, men det setter ikke et krav til det, hverken i spill eller hardware. http://www.dualshockers.com/2014/09/03/ps4s-powerful-async-compute-tech-allows-the-tomorrow-childrens-developer-to-save-5-ms-per-frame/ Her ser man dog et tilfelle der async compute sparer opptil 5ms på et 33ms frame (30FPS -> 37FPS), noe som er ganske bra, men i gjennomsnitt er det neppe noe dramatisk. Dette gjelder et eksklusivt PS4 spill der man gjerne kan optimalisere koden bedre og man har også mulighet til å gjøre mer GPGPU (ikke grafikk) arbeid på konsoll pga den nokså overlegne CPU<->GPU kommunikasjonen man har der og dermed en større blanding av flere typer jobber som passer bra for async compute. På PC har man en ganske stor forsinkelse på dette slik at gameplay kode (som må oppdateres på CPU) ikke bør kjøres på GPU. Async compute er et fint verktøy, men jeg tror kanskje viktigheten av det er en smule overdrevent. Jeg har ihvertfall et inntrykk at en del ser på dette som en holy grail innen fremtidig GPU ytelse, noe det neppe vil være. Det blir uansett spennende å se hvordan ting utvikler seg. 1 Lenke til kommentar
Malvado Skrevet 27. mai 2016 Del Skrevet 27. mai 2016 TKongen: AoS bruker en vendor ID sjekk og skrur av async compute på Nvidia kort, inkludert Pascal. Dem hadde ikke noe GeForce 1080 kort å teste spillet imot. Jeg kjenner ikke til andre gode eksempler på async compute. Hitman gjør det også veldig sterkt på AMD hardware i DX11. Jeg håper vi kan se async compute for Pascal i AoS om ikke så lenge, samt selvfølgelig i flere spill og forskjellen det utgjør kontra GCN. DX12 muliggjør async compute, men det setter ikke et krav til det, hverken i spill eller hardware. http://www.dualshockers.com/2014/09/03/ps4s-powerful-async-compute-tech-allows-the-tomorrow-childrens-developer-to-save-5-ms-per-frame/ Her ser man dog et tilfelle der async compute sparer opptil 5ms på et 33ms frame (30FPS -> 37FPS), noe som er ganske bra, men i gjennomsnitt er det neppe noe dramatisk. Dette gjelder et eksklusivt PS4 spill der man gjerne kan optimalisere koden bedre og man har også mulighet til å gjøre mer GPGPU (ikke grafikk) arbeid på konsoll pga den nokså overlegne CPU<->GPU kommunikasjonen man har der og dermed en større blanding av flere typer jobber som passer bra for async compute. På PC har man en ganske stor forsinkelse på dette slik at gameplay kode (som må oppdateres på CPU) ikke bør kjøres på GPU. Async compute er et fint verktøy, men jeg tror kanskje viktigheten av det er en smule overdrevent. Jeg har ihvertfall et inntrykk at en del ser på dette som en holy grail innen fremtidig GPU ytelse, noe det neppe vil være. Det blir uansett spennende å se hvordan ting utvikler seg. Noen av problemene med Async Compute er at det ikke utnytter ( enda?) Gpu'en fult ut. Det sies at det vil komme forbedringer der , men når og hvordan det skjer har jeg ikke snøring på. Vet at jeg leste litt om hvordan det per dags dato utnytter litt av gpu'en men at det finnes potensiale for at enda mer av gpu'en kan bli brukt når det er mulig. Lenke til kommentar
Nizzen Skrevet 28. mai 2016 Del Skrevet 28. mai 2016 TKongen: AoS bruker en vendor ID sjekk og skrur av async compute på Nvidia kort, inkludert Pascal. Dem hadde ikke noe GeForce 1080 kort å teste spillet imot. Jeg kjenner ikke til andre gode eksempler på async compute. Hitman gjør det også veldig sterkt på AMD hardware i DX11. Jeg håper vi kan se async compute for Pascal i AoS om ikke så lenge, samt selvfølgelig i flere spill og forskjellen det utgjør kontra GCN. DX12 muliggjør async compute, men det setter ikke et krav til det, hverken i spill eller hardware. http://www.dualshockers.com/2014/09/03/ps4s-powerful-async-compute-tech-allows-the-tomorrow-childrens-developer-to-save-5-ms-per-frame/ Her ser man dog et tilfelle der async compute sparer opptil 5ms på et 33ms frame (30FPS -> 37FPS), noe som er ganske bra, men i gjennomsnitt er det neppe noe dramatisk. Dette gjelder et eksklusivt PS4 spill der man gjerne kan optimalisere koden bedre og man har også mulighet til å gjøre mer GPGPU (ikke grafikk) arbeid på konsoll pga den nokså overlegne CPU<->GPU kommunikasjonen man har der og dermed en større blanding av flere typer jobber som passer bra for async compute. På PC har man en ganske stor forsinkelse på dette slik at gameplay kode (som må oppdateres på CPU) ikke bør kjøres på GPU. Async compute er et fint verktøy, men jeg tror kanskje viktigheten av det er en smule overdrevent. Jeg har ihvertfall et inntrykk at en del ser på dette som en holy grail innen fremtidig GPU ytelse, noe det neppe vil være. Det blir uansett spennende å se hvordan ting utvikler seg. Noen av problemene med Async Compute er at det ikke utnytter ( enda?) Gpu'en fult ut. Det sies at det vil komme forbedringer der , men når og hvordan det skjer har jeg ikke snøring på. Vet at jeg leste litt om hvordan det per dags dato utnytter litt av gpu'en men at det finnes potensiale for at enda mer av gpu'en kan bli brukt når det er mulig. "Hvis du har en GPU som gjør "perfekt" scheduling så forstår alle at det ikke har noe for seg å kjøre to parallelle threads som bruker samme ressurser, det er ikke det Async shaders er ment for i det hele tatt, for da vil en sekvensiell utførelse faktisk være bedre. Async shaders handler om å utnytte ulike ressurser i GPUen til ulike oppgaver. Hvis du gjør alt gjennom én kø (i ett context som det heter) så vil f.eks. en rendering-oppgave okkupere alle ressurser til GPUen, selv om du egentlig bare trenger regnekraften, minnebuss, TMU, etc. Andre oppgaver som f.eks. streaming av data, enkoding av video og komprimering av teksturer vil på tilsvarende vis okkupere hele GPUen selv om alle disse oppgavene bruker forskjellige ressurser i GPUen. Hele hensikten til Async shaders er at GPUen kan gjøre ulike typer oppgaver samtidig. Som sagt vil en GPU med god scheduling ikke ha noen gevinst av å gjøre en rendering samtidig med noe annet compute-intensivt. Og siden Nvidia har nær "perfekt" scheduling på Maxwell så hadde de ikke fått noen ytelsegevinst med å aktivere det heller. Fury X har formidable 53% mer "regnekraft" enn GTX 980 Ti, men likevel er GTX 980 Ti jevnt over bedre i spill, hvorfor det tror du? Det er fordi Fiji sitter der med 30-40% av GPUen i "idle" mens GM200 utnyttes nær perfekt. Hadde GCN fungert som det skulle så hadde Fiji knust GM200 i spill. Når AMD enda til klarer å tjene opptil 20% ytelsegevinst i spill som Ashes of the Singularity med compute samtidig som rendering (som altså bruker samme ressurser), så bekrefter det at AMD sliter med sheduling og at GCN ikke får matet kjernene sine effektivt. De velger altså å bruke Async shaders til noe annet enn det egentlig er ment; nemlig å bøte på for en elendig GPU-arkitektur. Og det blir bare dumt når det forventes at spillutviklere skal optimalisere for AMDs ineffektive design." 1 Lenke til kommentar
MistaPi Skrevet 28. mai 2016 Del Skrevet 28. mai 2016 Noen av problemene med Async Compute er at det ikke utnytter ( enda?) Gpu'en fult ut. Det sies at det vil komme forbedringer der , men når og hvordan det skjer har jeg ikke snøring på. Vet at jeg leste litt om hvordan det per dags dato utnytter litt av gpu'en men at det finnes potensiale for at enda mer av gpu'en kan bli brukt når det er mulig. Det kan vel tenkes at en større blanding av GPU compute og grafikk rendering oppgaver i fremtidige spill vil nok gjøre async compute mer nyttig, men igjen forventer jeg ikke dramatiske forskjeller i gjennomsnittet. Selvom async compute vil hjelpe til å utnytte en GPU bedre vil forskjellige spill gi forskjellige flaskehalser på en gitt GPU, avhengig av forholdet av arbeidslaster spillet gir (ALU, TMU, ROP). Det å utnytte en GPU fullt ut er mer eller mindre en utopi, spesielt på PC med mange forskjellige GPU'er med forskjellige ALU, TMU, ROP og båndbredde forhold. Som jeg har vært inne på tidligere trenger det ikke å bety at Nvidia hadde hatt like mye å hente med async compute på nivå med GCN, dvs at dem har en bedre shader ALU utnyttelse enn GCN i utgangspunktet, men det vel vanskelig å si noe definitivt om. HKS snakket ihvertfall om at Polaris skal få en del bedre IPC, så det blir spennende å se hvor stor effekt async compute har på GCN 4.0. 1 Lenke til kommentar
IceBlitz Skrevet 30. mai 2016 Del Skrevet 30. mai 2016 (endret) Sitter og kikker litt på custom kortene som har begynt å komme. Ser at EVGA sitt FTW Gaming har 10+2 PCB. Trenger man virkelig mer enn 10+2 for å overklokke greit? Er det noen vits å legge ekstra penger i et classy for å få 14+3? Hvor mye mer OC får man av dette med kjøleren som kommer med, sånn typisk (980 erfaringer)? Tenker litt på plassen i PC-en min. Vet ikke om jeg har plass til 30cm+ lange kort, da må det omarrangeres litt i kabinettet hvertfall. Endret 30. mai 2016 av IceBlitz Lenke til kommentar
Nizzen Skrevet 30. mai 2016 Del Skrevet 30. mai 2016 (endret) Sitter og kikker litt på custom kortene som har begynt å komme. Ser at EVGA sitt FTW Gaming har 10+2 PCB. Trenger man virkelig mer enn 10+2 for å overklokke greit? Er det noen vits å legge ekstra penger i et classy for å få 14+3? Hvor mye mer OC får man av dette med kjøleren som kommer med, sånn typisk (980 erfaringer)? Tenker litt på plassen i PC-en min. Vet ikke om jeg har plass til 30cm+ lange kort, da må det omarrangeres litt i kabinettet hvertfall. Det er jo dette vi skal teste nå, så du må nok vente 14 dager for svar på dette Eneste som hjalp for maxwell var å holde korta under 70 grader hele tiden. Mere spenning hjalp kanskje 20-50mhz Classy er mest for ln2, men det vet jo de fleste. 780/780ti classy skalerte bra med spenning, så disse var konge på vann Endret 30. mai 2016 av Nizzen Lenke til kommentar
IceBlitz Skrevet 30. mai 2016 Del Skrevet 30. mai 2016 Sitter og kikker litt på custom kortene som har begynt å komme. Ser at EVGA sitt FTW Gaming har 10+2 PCB. Trenger man virkelig mer enn 10+2 for å overklokke greit? Er det noen vits å legge ekstra penger i et classy for å få 14+3? Hvor mye mer OC får man av dette med kjøleren som kommer med, sånn typisk (980 erfaringer)? Tenker litt på plassen i PC-en min. Vet ikke om jeg har plass til 30cm+ lange kort, da må det omarrangeres litt i kabinettet hvertfall. Det er jo dette vi skal teste nå, så du må nok vente 14 dager for svar på dette Eneste som hjalp for maxwell var å holde korta under 70 grader hele tiden. Mere spenning hjalp kanskje 20-50mhz Classy er mest for ln2, men det vet jo de fleste. 780/780ti classy skalerte bra med spenning, så disse var konge på vann Jeg har bare noen få tanker med LN2 og må spare vannet i brønnen til tørketidene som kommer, så det blir nok luftkjøling på meg Men da får jeg vente og se når tester kommer. Hadde vært gøy å passere 2GHz, og kan jeg det med 10+2 og luft så er jeg meget fornøyd Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå