-=HellBound=- Skrevet 20. mai 2016 Del Skrevet 20. mai 2016 Ser de begynne komme på sider i Uk nå fra forskjellige merker, men alle er "Founders Edition".Melkingen er i gang. Blir en stund til custom kortene kommer ser det ut som :/ . https://www.overclockers.co.uk/pc-components/graphics-cards/nvidia/geforce-gtx-1080 1 Lenke til kommentar
samobil Skrevet 20. mai 2016 Del Skrevet 20. mai 2016 Definitivt kjøp. Har både 1080p144hz skjerm, og 4k-skjerm, så den store forskjellen mot 980-kortet mitt verkar verdt 6-7K. Hvis du kjører 980 nå, så vent. Founders edition er ikke verdt det i det hele tatt og det er ikke alt for lenge til tredjeparts kort kommer... Lenke til kommentar
IceBlitz Skrevet 21. mai 2016 Del Skrevet 21. mai 2016 Hva tror dere vil lage minst støy av "Founders Edition" og tredjeparts kort? Har aldri likt standardkjølerne til hverken Nvidia eller AMD, men Nvidia sier den skal være oppdatert og forbedret. Og hva tror dere vil overklokke best? Har veldig lyst til å bestille Founders Edition siden jeg får Oculus Rift i neste uke, men om der blir stor forskjell på støy så kan jeg nok klare å vente Lenke til kommentar
Nizzen Skrevet 21. mai 2016 Del Skrevet 21. mai 2016 Hva tror dere vil lage minst støy av "Founders Edition" og tredjeparts kort? Har aldri likt standardkjølerne til hverken Nvidia eller AMD, men Nvidia sier den skal være oppdatert og forbedret. Og hva tror dere vil overklokke best? Har veldig lyst til å bestille Founders Edition siden jeg får Oculus Rift i neste uke, men om der blir stor forskjell på støy så kan jeg nok klare å vente Om man ikkje overklokker kortet, og har litt luftgjennomstrømning i kabinettet, så er det nok stille nok 3.partskjølere er ELENDIG om de ikkje får nok luft. Det kan f.eks nesten ikkje stå helt intill hverandre i sli. Da vil det øverste skjermkortet bli alt for varmt og bråke helt villt og ble evig varmt. Lenke til kommentar
IceBlitz Skrevet 21. mai 2016 Del Skrevet 21. mai 2016 Hva tror dere vil lage minst støy av "Founders Edition" og tredjeparts kort? Har aldri likt standardkjølerne til hverken Nvidia eller AMD, men Nvidia sier den skal være oppdatert og forbedret. Og hva tror dere vil overklokke best? Har veldig lyst til å bestille Founders Edition siden jeg får Oculus Rift i neste uke, men om der blir stor forskjell på støy så kan jeg nok klare å vente Om man ikkje overklokker kortet, og har litt luftgjennomstrømning i kabinettet, så er det nok stille nok 3.partskjølere er ELENDIG om de ikkje får nok luft. Det kan f.eks nesten ikkje stå helt intill hverandre i sli. Da vil det øverste skjermkortet bli alt for varmt og bråke helt villt og ble evig varmt. Okei Jeg skal bare ha ett kort, og det står i et svært godt avkjølt kabinett, med kontinuerlig kald luftstrøm mot CPU og GPU. Systemet mitt nå er så stille at det nesten ikke kan høres, og ønsker å beholde det slik. Men ønsker også god OC, så da regner jeg med et custom kort er best? Lenke til kommentar
Nizzen Skrevet 21. mai 2016 Del Skrevet 21. mai 2016 Hva tror dere vil lage minst støy av "Founders Edition" og tredjeparts kort? Har aldri likt standardkjølerne til hverken Nvidia eller AMD, men Nvidia sier den skal være oppdatert og forbedret. Og hva tror dere vil overklokke best? Har veldig lyst til å bestille Founders Edition siden jeg får Oculus Rift i neste uke, men om der blir stor forskjell på støy så kan jeg nok klare å vente Om man ikkje overklokker kortet, og har litt luftgjennomstrømning i kabinettet, så er det nok stille nok 3.partskjølere er ELENDIG om de ikkje får nok luft. Det kan f.eks nesten ikkje stå helt intill hverandre i sli. Da vil det øverste skjermkortet bli alt for varmt og bråke helt villt og ble evig varmt. Okei Jeg skal bare ha ett kort, og det står i et svært godt avkjølt kabinett, med kontinuerlig kald luftstrøm mot CPU og GPU. Systemet mitt nå er så stille at det nesten ikke kan høres, og ønsker å beholde det slik. Men ønsker også god OC, så da regner jeg med et custom kort er best? Mest sansynlig best ja. Iallefall med lukket vannkjøling, dog den vil nok koste en del mere. Lenke til kommentar
Malvado Skrevet 21. mai 2016 Del Skrevet 21. mai 2016 Jeg tror at for langvarig drift er det som regel best med en ordentlig kjøleløsning , jeg er glad i viftebaserte løsninger som faktisk har god levetid da vedlikeholdet av vannbaserte systemer tar litt mer tid og det er alltid en risiko for permadeath Men vannbasert er som regel svært bra... Brukerfeil er nok den største synderen der... Lenke til kommentar
rbr Skrevet 22. mai 2016 Del Skrevet 22. mai 2016 tror nok jeg bytter ut mine to 980 med ett 1080.(ikke founders edition) Litt lei SLI problemer,blir kanskje ikke så mye mer ytelse,men jeg taper vel ikke noe særlig på det.eller.... . Lenke til kommentar
La Menthe Skrevet 23. mai 2016 Del Skrevet 23. mai 2016 (endret) Hår blir viktigere og viktigere i spill. Vi beveger oss nærmere og nærmere realistiske grafikk, og mange spill ser utrolig gode ut. Et stort problem derimot er hår. Det er vanskelig å modellere og rendere store mengder hår som beveger seg skikkelig og realistisk. Det er derimot teknologier som får til nettopp dette. Det er åpenbart fremtiden med slik hår, og noe som kommer til å være i alt av spill. Det er og åpenbart fra tester av dette at Nvidia sin arkitektur er rett og slett mye mer fremtidsrettet. Det er ingenting AMD kan gjøre med det SW messig. Nvidia sin arkitektur klarer seg rett og slett mye bedre med hår enn AMD. Så hvis du tenker fremtidsrettet på alle de store tunge trippel-A titlene fremover bør du virkelig skaffe deg et NVidia kort. Ellers kan du aldri spille spillene med bra hår, mens alle som har Nvidia sitter og koser seg med nydelig hår. Her er ellers det eneste benchmarket som trengs for å bekrefte dette: Hva i huleste var det jeg nettopp leste? Er du seriøs nå, TKongen? AMDs TressFX Hair fungerer da like bra, og ulikt Hairworks er det åpen kildekode. Ser virkelig ikke hvordan Gameworks er "fremtiden". Og at AMD har problemer med Gameworks har vi allerede vært gjennom flere ganger; det har også tidligere vært indikasjoner på at Nvidia bevisst har brukt Gameworks for å stikke kjepper i hjulene på AMD. Så kommer vi til Ashes of the Singularity. De var liksom bare på AMD sin launch av Fury og bare viste hvor bra fury var med spillet. De har åpenbart ekstremt tette bånd til AMD. Hva er grunnlaget for at du påstår dette? Er det bare teorier, eller har du noen kilder for å støtte opp under det? Oxide Games, selskapet bak AoS, innrømte selv i etterkant av den første benchmarken forrige høst, at det var nVidias PR-avdeling som presset dem om å utelate essensielle deler av asynch compute i benchmarken. Har dette gått deg hus forbi? De sa til og med at de i sin implementasjon var mest "biased" ovenfor nVidia: “Personally, I think one could just as easily make the claim that we were biased toward Nvidia as the only ‘vendor’ specific code is for Nvidia where we had to shutdown async compute. By vendor specific, I mean a case where we look at the Vendor ID and make changes to our rendering path. Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn’t really have Async Compute* so I don’t know why their driver was trying to expose that.” . Hvis dette ikke er favoriseringing og fanboying for AMD, så vet ikke jeg hva som er. Hvis folk mener AotS er et skikkelig benchmark, da er også Hairworks enabled i Witcher 3 og Project: CARS også helt legitime benchmarks for å finne ytelse. Du kan ikke si at det ene custom lagde greiene er, og det andre ikke er. Asynch Compute er en maskinvarefunksjon, og er bunnet ned i arkitekturen til grafikkortet. Ingen har forhindret Nvidia i å implementere dette i deres maskinvare, men mtp. hvor nytt D3D12 er, så har de heller ikke hatt tiden de trenger til å gjøre dette i Pascal. Den manglende Asynch Compute-kapabiliteten (som så mange her påsto bare var Nvidia som hadde slått av driverne sine), i tillegg til manglende DX12-spill, har i ettertid også vist hvor nytt og umodent D3D12 faktisk er, og hvorfor AMDs GCN-kort støtter det så bra (Mantle). GameWorks derimot, er en programvarepakke fra Nvidia, som de implementerer i en rekke spill. Problemet med GameWorks er at kildekoden er lukket, og det gjør det utrolig vanskelig for AMD og Intel å kunne best mulig optimalisere deres maskinvare for det. Lær deg forskjellen. AotS viser bra async compute boost for Fury X i sine spesiallagde tester med egen framcounting. Ikke overraskende med tanke på hvor mye tid de har brukt på å få til nettopp dette. Likevel, om det liksom blir det ene spillet i året som brukes som AMD tech demo, hvorfor kjøpe et kort som kan få en liten boost med async compute? Spesielt hvis du bare kan kjøpe et Nvidia kort som bare yter bedre i alt annet.... Async compute er ikke magi. Det er reelt, og det kan være utrolig bra, men det er utrolig komplekst, avansert og vanskelig. Sannsynligheten for å gjøre en stor forskjell er ikke stor. Du kan alltids vise hva det kan oppnå i teorien (AotS), men noe annet er hva det gjør i praksis (skikkelige, ikke lanserte, DX 12 titler). Asynch er ikke "utrolig komplekst, avansert og vanskelig", og er en viktig grunnstein i det Mantle introduserte, og som blant annet D3D12 og Vulkan viderefører. Morsomt også hvordan det hele tiden neglisjeres av enkelte brukere, når Nvidia nylig satte av egen presentasjon der de snakket spesifikt om nettopp Asynch Compute. Utrolig rart å gjøre dette, hvis det ikke er viktig? AoS er heller ikke noe teori, men det mest fullverdige DX12-spillet vi har å se på. Inntil utvalget av DX12-spill øker utover året, som uansett i nesten alle tilfeller vi har sett på har favorisert AMD, så er det rett og slett ingenting mer å si om saken. Og at Nvidia-kort yter bedre i alt annet er tøv og tøys. Slike påstander kan du spare deg for. Her har du en enkel 5-minutters video om Asynch Compute, som jeg håper du tar deg tid til å se for å lære mer om det: Endret 23. mai 2016 av La Menthe Lenke til kommentar
TKongen Skrevet 24. mai 2016 Del Skrevet 24. mai 2016 Jeg brukte Hairworks historien min for å illustrere hvorfor denne AotS argumentasjonen ikke fungerer. Det er liksom slik jeg skrev folk argumenterer. Grunnlaget for at AotS favoriserer AMD? De var liksom i AMD sin twitch launch stream for Fury, og det var det spillet de viste på stream med Fury. Det er så åpenbart at de har jobbet sammen. Så du Nizzen sine innlegg om AotS? Testen fra HC som er utført med PresentMon for å måle ytelse, og ikke AotS sin ytelsesmåler. Som forøvrig gir veldig varierende resultater. Gjett hva resultatet ble? http://i.imgur.com/WG0Mnpj.jpg?1 PresentMon er open source, utviklet av Intel. Selvfølgelig har de lagt inn detection av Nvidia for å slå av async compute, det senker jo ytelse. Hva selskapet sel påstår er irrelevant. Og så til påstander fra spillstudio. Du husker nok Project Cars. Spillet som ikke er GameWorks, selskapet som ikke er sponset av Nvidia og har bra forhold til begge selskaper. Spillet som bruker sin egen render motor, og studioet som sier det er helt feil at de ødelegger AMD sin ytelse i spillet. http://www.pcgamer.com/project-cars-studio-denies-it-intentionally-crippled-performance-on-amd-cards/ Selvfølgelig sier ikke devsene at det er optimalisert for AMD. Det er jo en del av dealen. Kilde: http://www.pcgamer.com/project-cars-studio-denies-it-intentionally-crippled-performance-on-amd-cards/ Async compute er IKKE en ren HW funksjon. Det må selvfølgelig støttes i HW, men det er ikke en magisk ting som støttes, eller ikke støttes. Hvor bra det fungerer avhenger MYE av kodingen. Det er det som er avansert. Som jeg sa tidligere, hvor mange async CPUer finnes? Hvorfor finnes det ingen? Det er aaaaltfor vanskelig. Håper du og er klar over at grunnen til at AMD "støtter" async bedre hovedsaklig er fordi de har dårligere utnyttelse av GPU enn Nvidia har. AMD har langt flere kjerner, kjerner som idler mer. Nvidia har færre, men bruker dem mye mer, og har mindre idle tid. Selvfølgelig må det være mulig å bruke async compute på kortet, og dermed må en ha en viss HW støtte for det. Likevel, den vanskelige delen med async compute er koden for det. Altså er async compute ytelsen til AMD avhengig av hvor bra spillene kodes for det. Nevnte jeg at det må gjøres på et kort per kort basis? Jeg sa aldri async compute ikke er viktig, jeg sa det er vanskelig. Stor forskjell. Async compute er viktig, og jeg tror med tid at det vil være viktig for å øke ytelse til GPUer. Likevel, fremtiden er ikke i dag. Hvem har et Fury X om 10 år? Jeg vet ellers forskjellen på gameworks og DX12. Det ser derimot ikke ut til at du skjønte poenget mitt. JA AotS er et fullverdig DX12 spill. Det er samtidig en AMD tittel, på lik linje med Witcher 3. Dermed vil det UANSETT ha høyere ytelse for AMD enn Nvidia. Hvilken effekt DX12 har kan ikke bestemmes pga av dette. Spesielt med HC sin test. Nvidia er faktisk bedre i AotS om du bruker et nøytralt program for å måle ytelse, og ikke AotS sin biased måler. Vi har ikke fått flere fullverdige DX12 titler. Vi har DX11 spill med DX12 klistermerke på dem. Tomb raider har jo bare patchet det inn. Hitman og Tomb Raider er og tradisjonelle AMD titler, uten at det har hjulpet AMD. Det er og merkelig at ingen skriker når 980 Ti taper til R9 390 i Hitman, men om AMD faller langt bak Nvidia på likt vis pga Gameworks så er Nvidia onde og crippler AMD sin ytelse. Latterlig spør du meg. Spesielt med tanke på at Gameworks kan slås av, kan noe i Hitman slås av? Nope. NVidia gir f.eks Hairworks som noe ekstra du kan velge om du har nytt Nvidia kort. Og det har tatt så laaaaang tid for Nvidia å endelig klare å få lik ytelse som AMD i Tomb Raider. Før i tiden var de langt bak. Men selvfølgelig, en AMD tittel er bevis for at AMD er mye bedre i DX12, mens en NVidia tittel er bevis på at Nvidia er et ondt selskap som ødelegger ytelsen for AMD. Jeg regner med at det bare er noe jeg må akseptere på forum. Jeg mener, hvis nok folk skriver det på forum så må det vel bli sant til slutt? Jeg skulle virkelig ønske folk sluttet å skrive om AMD sin DX12 ytelse nå. Vi vet enda ikke nok om det til å konkludere. Likevel konkluderte så mange folk bare de så et par AotS benchmarks. Det er bare høyst ulogisk å konkludere basert på noe slik. Men samtidig hvis du allerede er biased, er det vel vanskelig å se at testen som utfører også er, mens du lett ser når konkurrentens test er biased. 1 Lenke til kommentar
La Menthe Skrevet 24. mai 2016 Del Skrevet 24. mai 2016 (endret) Jeg brukte Hairworks historien min for å illustrere hvorfor denne AotS argumentasjonen ikke fungerer. Det er liksom slik jeg skrev folk argumenterer. Det er irrelevant, fordi det er to helt forskjellige tilfeller som forteller oss to helt forskjellige ting. I dine øyner gjør det, det ikke, men det viser bare din manglende forståelse for hva Asynch Compute og hva GameStream er, og forskjellen mellom de. Det er helt idiotisk å sammenstille disse to tingene. Grunnlaget for at AotS favoriserer AMD? De var liksom i AMD sin twitch launch stream for Fury, og det var det spillet de viste på stream med Fury. Det er så åpenbart at de har jobbet sammen. Igjen, legge fram kilder for det du påstår, eller slutt med dine grunnløse påstander. Oxide Games har selv flere ganger sagt at de har vært mest "biased" ovenfor Nvidia, og at det var Nvidia som presset dem til å slå av Asynch Compute i testen deres. Så du Nizzen sine innlegg om AotS? Testen fra HC som er utført med PresentMon for å måle ytelse, og ikke AotS sin ytelsesmåler. Som forøvrig gir veldig varierende resultater. Gjett hva resultatet ble? http://i.imgur.com/WG0Mnpj.jpg?1 PresentMon er open source, utviklet av Intel. Det er EN test, som motsetter seg resultatene fra et hav av andre tester der ute. At du velger å avfeie alt annet til fordel for en test som passer deg best, viser egentlig hvor seriøst du tar dette. Du husker nok Project Cars. Spillet som ikke er GameWorks, selskapet som ikke er sponset av Nvidia og har bra forhold til begge selskaper. Spillet som bruker sin egen render motor, og studioet som sier det er helt feil at de ødelegger AMD sin ytelse i spillet. http://www.pcgamer.com/project-cars-studio-denies-it-intentionally-crippled-performance-on-amd-cards/ Hvilken relevans har dette i det vi diskuterer, egentlig? Selvfølgelig sier ikke devsene at det er optimalisert for AMD. Det er jo en del av dealen. Mektige argumenter du fremfører her. Må si du har meg overbevist! Async compute er IKKE en ren HW funksjon. Det må selvfølgelig støttes i HW, men det er ikke en magisk ting som støttes, eller ikke støttes. Hvor bra det fungerer avhenger MYE av kodingen. Det er det som er avansert. Det kan jo du si om alt av software suits der drivere er involvert. Herregud, skjønner du i det hele tatt hva du babler om, eller? Håper du og er klar over at grunnen til at AMD "støtter" async bedre hovedsaklig er fordi de har dårligere utnyttelse av GPU enn Nvidia har. Verste jeg har lest. Grunnen ligger vel i at Nvidia har ansett Asynch Compute som en overfladisk teknologi å ha, noe Mantle og DX12 og Vulkan senere har motbevist. Du kan banne på at fremtidige Nvidia-arkitekturer vil ta i bruk Asynch Compute i like god grad som AMD og Intel i dag. Jeg sa aldri async compute ikke er viktig, jeg sa det er vanskelig. Stor forskjell. Async compute er viktig, og jeg tror med tid at det vil være viktig for å øke ytelse til GPUer. Likevel, fremtiden er ikke i dag. Hvem har et Fury X om 10 år? Hva er det du mener å si her? At Asynch Compute er relevant først om 10 år? JA AotS er et fullverdig DX12 spill. Nei, det er "det mest fullverdige DX12-spillet" -- det er så absolutt ingen fullverdig DX12-spill. Les teksten min igjen. At du faller for misforståelsen og faktisk kaller AotS et fullverdig DX12-spill er vel nok en indikasjon på manglende kunnskap om hva DX12 faktisk er og hva det innholder. . Det er samtidig en AMD tittel Det er ingen AMD-tittel. Det er en egen tittel, uavhengig av AMD, Nvidia, Intel eller noen andre partnere. Om du i det hele tatt skal pinne det på noen, så har Oxide Games selv sagt at samarbeidet var mest med Nvidia enn noen andre partnere. Det er og merkelig at ingen skriker når 980 Ti taper til R9 390 i Hitman, men om AMD faller langt bak Nvidia på likt vis pga Gameworks så er Nvidia onde og crippler AMD sin ytelse. Er GameWorks åpen kildekode eller ikke? Et enkelt ja/nei spørsmål. Så lenge svaret er nei, så har Nvidia ingen argumenter å komme med, når folk gjør et klagemål ut av at AMD-kort gjør det bemerkelsesverdig dårlig på GameWorks-spill. Der TressFX Hair i det store og hele kjører like bra på begge kort, er det helt motsatt med HairWorks. Hva tror du det skyldes? Spesielt med tanke på at Gameworks kan slås av, kan noe i Hitman slås av? Nope Slik som Gears of War, der PhysX var automatisk slått på, og ble dirigert til å overlaste CPUen, så snart det var noe annet enn Nvidia-GPUer som ble brukt? Det er helt feil at man kan slå av GameWorks. Enkelte funksjoner av GameWorks, som Hairworks, kan slå av, men det inkluderer bare en del av det. Om jeg ikke husker feil, hadde man heller ikke muligheten til å slå av HBAO+ i GoW. Eller minke bruken at tesselation i The Witcher 3, der den visuelle forskjellen mellom x64 og x16 var uatskillelig, mens "performance hit" var merkbar, og da spesielt for AMD-kort. Men samtidig hvis du allerede er biased, er det vel vanskelig å se at testen som utfører også er, mens du lett ser når konkurrentens test er biased. Snakk for deg selv. Du sutrer stadig over at AMD, og bruker teknologier om hverandre som gir absolutt ingen mening overhode. Endret 24. mai 2016 av La Menthe Lenke til kommentar
HKS Skrevet 24. mai 2016 Del Skrevet 24. mai 2016 Igjen, legge fram kilder for det du påstår, eller slutt med dine grunnløse påstander. Oxide Games har selv flere ganger sagt at de har vært mest "biased" ovenfor Nvidia, og at det var Nvidia som presset dem til å slå av Asynch Compute i testen deres.AMD logo på nettsiden til spillet er jo en god indikator: http://www.ashesofthesingularity.com Ellers er jo spillet en "Gaming Evolved" tittel: http://www.amd.com/en-us/markets/game/featured/ashes-of-the-singularity Ashes of Singularity var i utganspunktet et DX11/Mantle spill som ble portet om til et DX11/DX12 spill. Så du Nizzen sine innlegg om AotS? Testen fra HC som er utført med PresentMon for å måle ytelse, og ikke AotS sin ytelsesmåler. Som forøvrig gir veldig varierende resultater. Gjett hva resultatet ble? http://i.imgur.com/WG0Mnpj.jpg?1 PresentMon er open source, utviklet av Intel. Det er EN test, som motsetter seg resultatene fra et hav av andre tester der ute. At du velger å avfeie alt annet til fordel for en test som passer deg best, viser egentlig hvor seriøst du tar dette. Det er allikevel interresant at et åpen kildekode 3. parts verktøy måler helt andre resultater enn den innebygde benchmarken i spillet. Det er vel ikke snak om å avfeie resultater her, det er vel mer en interesant input. . Det er samtidig en AMD tittelDet er ingen AMD-tittel. Det er en egen tittel, uavhengig av AMD, Nvidia, Intel eller noen andre partnere. Om du i det hele tatt skal pinne det på noen, så har Oxide Games selv sagt at samarbeidet var mest med Nvidia enn noen andre partnere. Da burde de kanskje fjernet AMD logoen fra nettsidene sine? Er GameWorks åpen kildekode eller ikke? Et enkelt ja/nei spørsmål. Så lenge svaret er nei, så har Nvidia ingen argumenter å komme med, når folk gjør et klagemål ut av at AMD-kort gjør det bemerkelsesverdig dårlig på GameWorks-spill.Ja og nei. Du kan få tilgang til kildekoden på mange av komponentene i GameWorks (FaceWorks, Volumetric Lighting, HBAO+, HairWorks, etc.): https://developer.nvidia.com/gameworks-source-github Bleeding edge i GameWorks (VXGI, VXAO, HFTS, etc.) må man inngå NDA med Nvidia for å få tilgang til. Der TressFX Hair i det store og hele kjører like bra på begge kort, er det helt motsatt med HairWorks. Hva tror du det skyldes?Erindrer vel at det var ganske mye kluss i starten med TressFX. Hadde i allefall problemer med 2013 versjonen av Tomb Raider og GeForce kort. Mener å huske at det tok noen måneder før ytelsen ble akseptabel. Lenke til kommentar
La Menthe Skrevet 24. mai 2016 Del Skrevet 24. mai 2016 (endret) AMD logo på nettsiden til spillet er jo en god indikator: http://www.ashesofthesingularity.com Ellers er jo spillet en "Gaming Evolved" tittel: http://www.amd.com/en-us/markets/game/featured/ashes-of-the-singularity Ashes of Singularity var i utganspunktet et DX11/Mantle spill som ble portet om til et DX11/DX12 spill. Begge disse to tingene går under det samme, da AMD-logoen kom på plass når spillet begyne å bli bundlet sammen med AMD-kort for 2 måneder tilbake. Det er ikke ulikt når Nvidia eller andre selskaper bundler enkelte spill med sine produkter -- uten at det skulle tilsi noe. Det er allikevel interresant at et åpen kildekode 3. parts verktøy måler helt andre resultater enn den innebygde benchmarken i spillet.Det er vel ikke snak om å avfeie resultater her, det er vel mer en interesant input. Det er helt klart en test å ta til etterretning (selv om HC er en ufattelig dårlig kilde, da fyren er upålitelig til 'ente grad), men det er ikke slik TKongen, Nizzen og andre formulert det. De har til stadighet gjengitt testen som den mest rasjonelle, og hintet til at alle de andre testene har fabrikert tall. Ja og nei. Du kan få tilgang til kildekoden på mange av komponentene i GameWorks (FaceWorks, Volumetric Lighting, HBAO+, HairWorks, etc.): https://developer.nvidia.com/gameworks-source-github Bleeding edge i GameWorks (VXGI, VXAO, HFTS, etc.) må man inngå NDA med Nvidia for å få tilgang til. Det er mer til det enn det. Samtlige av funksjonene de ikke er offentliggjort er de viktigste, mens mye av det de har offentliggjort enten er "gammelt" eller inkluderer for det meste ikke tesselation -- hovedproblemet hos AMD. HairWorks er vel det åpenbare unntaket. Endret 24. mai 2016 av La Menthe Lenke til kommentar
TKongen Skrevet 24. mai 2016 Del Skrevet 24. mai 2016 Som HKS skriver, dette spillet er en helt åpenbar AMD tittel. Både utvikler og AMD skriver det. Vet du hvorfor jeg skrev om project cars? Fordi du mener at når deven har sagt noe så stemmer det. Du er klar over at alle dine utsagn mot Gameworks ikke stemmer om en skal tro på alt devsene skriver? Jeg viser til at det devsene sier og skriver på nettet ikke trenger å være riktig. I denne saken har AotS devsene 0 troverdighet. Hvis du mener de har rett, så betyr det og at du aksepterer at Gameworks ikke påvirker AMD negativt. Og TressFX har IKKE kjørt like bra på begge kort. Nvidia har strevd så lenge med å få kortene sine til å kjøre akseptabelt med det. Det er deaktivert i tek.no sine tester av en grunn. Akkurat som Hairworks. Morsomt hvordan Hairworks er ille, men TressFX ikke er. Jeg sutrer ikke over AMD. Skriver jeg mye negativt om dem? Ja, men så har det ikke vært så mye positivt å skrive om dem heller i det siste. Jeg ser på testene objektivt. Jeg har heller ikke sagt noensinne at den ene testen betyr at alle andre er feil. Som HKS sier derimot, så gir det et interessant perspektiv. Til tross for å være en AMD tittel, så taper det altså med å måle ytelsen med et annet verktøy. Det gjør det bare enda dummere å bare se blindt på disse tallene som sannheten for DX12. Generelt virker det som om du er litt opptatt av at jeg skal mene at masse vondt om AMD. Samtidig er du veldig opptatt av å hevde at jeg ikke vet noe som helst om Asynch Compute. Du er og så opptatt av å mene at DX 12 og Gameworks er forskjellig at du ikke ser hva jeg faktisk skriver. De faktiske eksemplene. Jeg har aldri sammenlignet Gameworks og DX12 eller Async Compute. Du er bare for opptatt av å skrive hvordan det er forskjellig til å faktisk lese og forstå hva jeg mener. Samtidig har du denne ekstreme motviljen mot alt som heter Gameworks, er helt likegyldig til noe som heter Gaming Evolved, som er det samme, bare AMD sin versjon, og mener alt AMD lager er open source som yter likt for begge produsenter. Noe som er galt. AMD titler er klart bedre på AMD kort. Og det finnes både AMD og Nvidia titler. Lenke til kommentar
TKongen Skrevet 24. mai 2016 Del Skrevet 24. mai 2016 https://www.twitch.tv/amd/v/6240136 Her er kilden din med AotS sine devs som snakker om hvor bra AMD er, hvor bra dX12 er, og hvordan de kan bruke AMD og DX12 til å gjøre ting ingen andre har gjort osv. Den vanlige greia. Men selvfølgelig, ikke noe samarbeid her. Alt kan sikkert bortforklares på en eller annen måte De er nok Nvidia biased som de selv sier.... Lenke til kommentar
Malvado Skrevet 24. mai 2016 Del Skrevet 24. mai 2016 Men herregud da Tkongen, du er ikke en utvikler og ingen av oss har per dags dato fasiten enda på om det faktisk er en kraftig begrensing på en del oppgaver hos Nvidia og om Amd har faktisk en stor fordel her. Det som faktisk jeg ser er at det er mange her som faktisk går hardt til verks mot de områdene som det faktisk ser ut som Amd nå gjør det bra i , som DX12 , async compute osv og man kan jo spørre seg hvorfor? Om de skal være såpass neutrale som mange av de som driver denne diskusjonen påstår, så hadde de ikke hatt noe behov for å stadig vekk påpeke at : *Ascyn compute er en ting for kun Amd ( Totalt bias ) . *DX12 er ikke ferdigutviklet eller at det mangler spill som virkelig tar i bruk dette. Dermed så gjelder ikke tester som er laget på langt mindre tid det tar å utvikle et spill ( er det kanskje ikke logisk akkurat det i forhold til antall linjer med kode i begge to ) og når Dx12 spill kommer så spiller det ikke så stor rolle ytelsen til kort X fordi da har det kommet en ny generasjon med kort som støtter DX12 enda bedre... Ærlig talt , om dere ikke ser problemene ved å tenke sånn så vet jeg ikke , men da er det virkelig på tide å finne seg skammekroken og dunke hodet godt inn i hjørnet til man enten knerter de få hjernecellene man benytter eller til det går opp for vedkommende at man faktisk driver reneste sirkle jerken i favør av en aktør og den andre aktøren er selvsagt ondskapen selv. Mine personlige tester av det 980 ti kortet jeg har tilgjengelig viser at ytelsen er relativt stabil men har et lite fall i noen titler med DX12 (akkurat nå er det kun det nyeste Tomb Raider og resten de kjente syntetiske testene ) et par finjusteringer på noen innstillinger som knapt synes gir faktisk en langt bedre og mer stabil opplevelse så det er sjeldent man ser under 60 eller 120 fps så langt. Til sammenligning er 280 kortet sine fall på konkrete DX12 titler enorm ( 50 til 10 fps ) men det har trolig litt å gjøre med andre faktorer og litt finpussing av innstillingene der gjør at man får langt mer stabil fps som er hovedmålet mitt. Det bør vel også påpekes at så lenge programvaren til aktørene fungerer som det skal for å finne de beste innstillingene til systemet ditt så fungerer faktisk spillene ganske så bra uten at det er for mye fps drops , men noen finjusteringer kan man faktisk få mye ut av om man lærer å kjenne begrensningene til kortene og hva som tar minne / ytelse. Lenke til kommentar
La Menthe Skrevet 24. mai 2016 Del Skrevet 24. mai 2016 (endret) Som HKS skriver, dette spillet er en helt åpenbar AMD tittel. Både utvikler og AMD skriver det. Vet du hvorfor jeg skrev om project cars? Fordi du mener at når deven har sagt noe så stemmer det. Du er klar over at alle dine utsagn mot Gameworks ikke stemmer om en skal tro på alt devsene skriver? Jeg viser til at det devsene sier og skriver på nettet ikke trenger å være riktig. I denne saken har AotS devsene 0 troverdighet. Hvis du mener de har rett, så betyr det og at du aksepterer at Gameworks ikke påvirker AMD negativt. 1. Jeg har ingen grunn til å ikke tro utviklerne bak Project Cars. 2. Om vi antar at det Project Cars-utviklerne sa var usant, så skiller det seg uansett vesentlig fra AoS-eksempelet av den enkel grunn at i Project Cars så nekter utviklerne for å ha gjort noe galt. I AoS-testen blir Oxide Games anklaget for det samme, men i stedet for å bare nekte bias, går de regelrett ut og avslører at de har vært presset av Nvidia, og at de er mest biased mot dem. Det er ikke vanlig for en utvikler å "shit-talke" en leverandør på den måten uten videre, nå er det? 3. Det ene er ikke avhengig av det andre. Hvor mange ganger må jeg fortelle deg dette? Gameworks-kritikken går langt utenfor uttalelser fra spillutviklere. Det omfatter underemner som overbruk av tesselation, lukket kildekode, osv. Og TressFX har IKKE kjørt like bra på begge kort. Nvidia har strevd så lenge med å få kortene sine til å kjøre akseptabelt med det. Det er deaktivert i tek.no sine tester av en grunn. Akkurat som Hairworks. Morsomt hvordan Hairworks er ille, men TressFX ikke er. http://www.techspot.com/review/1128-rise-of-the-tomb-raider-benchmarks/page2.html Sammenlign forskjellen i ytelse med PureHair av/på på Nvidia- og AMD-kort med HairWorks. Derfor kan man konkludere at HairWorks er ille, mens TressFX ikke er det. Samtidig har du denne ekstreme motviljen mot alt som heter Gameworks, er helt likegyldig til noe som heter Gaming Evolved, som er det samme, bare AMD sin versjon, og mener alt AMD lager er open source som yter likt for begge produsenter. Noe som er galt. AMD titler er klart bedre på AMD kort. Og det finnes både AMD og Nvidia titler. Igjen viser du manglende evne til å skille mellom to ting. Først var det GameWorks og Asynch Compute. Nå gjør du det igjen med GameWorks og Gaming Evolved. GameWorks' motpol er GPUOpen. Gaming Evolveds (som snart vil utløses fullstendig av Crimson) motpol er Geforce Experience. At du ikke engang klarer å fatte denne forskjellen, og gjør en så stor skivebom, viser egentlig at du er helt på bærtur. Jeg er virkelig ikke mer interessert i å fortsette å diskutere med deg. Endret 25. mai 2016 av La Menthe Lenke til kommentar
Nizzen Skrevet 25. mai 2016 Del Skrevet 25. mai 2016 Her MÅ det være en nVidia fanboy som har benchet http://www.phoronix.com/scan.php?page=article&item=dota-2-vulkan&num=2 Lenke til kommentar
Nisirius Skrevet 25. mai 2016 Del Skrevet 25. mai 2016 Her MÅ det være en nVidia fanboy som har benchet http://www.phoronix.com/scan.php?page=article&item=dota-2-vulkan&num=2 Litt "funny" at 980Ti nesten er dobbelt så bra som 980 i den testen der, samt at R9 285 yter ca likt med mitt 980 (er det vram som begrenser ?) Lenke til kommentar
TKongen Skrevet 25. mai 2016 Del Skrevet 25. mai 2016 Men herregud da Tkongen, du er ikke en utvikler og ingen av oss har per dags dato fasiten enda på om det faktisk er en kraftig begrensing på en del oppgaver hos Nvidia og om Amd har faktisk en stor fordel her. Det som faktisk jeg ser er at det er mange her som faktisk går hardt til verks mot de områdene som det faktisk ser ut som Amd nå gjør det bra i , som DX12 , async compute osv og man kan jo spørre seg hvorfor? Om de skal være såpass neutrale som mange av de som driver denne diskusjonen påstår, så hadde de ikke hatt noe behov for å stadig vekk påpeke at : *Ascyn compute er en ting for kun Amd ( Totalt bias ) . *DX12 er ikke ferdigutviklet eller at det mangler spill som virkelig tar i bruk dette. Dermed så gjelder ikke tester som er laget på langt mindre tid det tar å utvikle et spill ( er det kanskje ikke logisk akkurat det i forhold til antall linjer med kode i begge to ) og når Dx12 spill kommer så spiller det ikke så stor rolle ytelsen til kort X fordi da har det kommet en ny generasjon med kort som støtter DX12 enda bedre... Ærlig talt , om dere ikke ser problemene ved å tenke sånn så vet jeg ikke , men da er det virkelig på tide å finne seg skammekroken og dunke hodet godt inn i hjørnet til man enten knerter de få hjernecellene man benytter eller til det går opp for vedkommende at man faktisk driver reneste sirkle jerken i favør av en aktør og den andre aktøren er selvsagt ondskapen selv. Mine personlige tester av det 980 ti kortet jeg har tilgjengelig viser at ytelsen er relativt stabil men har et lite fall i noen titler med DX12 (akkurat nå er det kun det nyeste Tomb Raider og resten de kjente syntetiske testene ) et par finjusteringer på noen innstillinger som knapt synes gir faktisk en langt bedre og mer stabil opplevelse så det er sjeldent man ser under 60 eller 120 fps så langt. Til sammenligning er 280 kortet sine fall på konkrete DX12 titler enorm ( 50 til 10 fps ) men det har trolig litt å gjøre med andre faktorer og litt finpussing av innstillingene der gjør at man får langt mer stabil fps som er hovedmålet mitt. Det bør vel også påpekes at så lenge programvaren til aktørene fungerer som det skal for å finne de beste innstillingene til systemet ditt så fungerer faktisk spillene ganske så bra uten at det er for mye fps drops , men noen finjusteringer kan man faktisk få mye ut av om man lærer å kjenne begrensningene til kortene og hva som tar minne / ytelse. Nei, jeg har ikke peiling på hvordan det vil være. Mulig at jeg har vært utydelig, men det er jo det som er poenget mitt. Vi vet ikke hvordan det vil slå ut. Jeg har aldri nektet for at AMD sannsynligvis vil gjøre det bedre i DX 12, og spesielt Async Compute. Jeg har aldri nektet for at Async Compute er viktig og noe som vil øke ytelse. Jeg har argumentert mot folk som sier hvor bra AMD vil bli med dette, som gjerne har gitt et inntrykk av at jeg mener AMD ikke vil bli noe videre bedre her. Det er ikke tilfellet derimot. Bare ved å se på AMD sin arkitektur for sine kort, så er det klart at de har langt større potensiale enn NVidia. Tidlige tester indikerer også at AMD gjør det bedre. Samtidig, er Async Compute ferdig og gjort riktig? Hvorfor er da Async Compute noe som senker ytelsen for alle Nvidia kort? I det minste burde det ha ingen effekt. Det er åpenbart at det er mer å gå på her, og at vi må vente med konklusjonen til vi får se spill som er bygd med dette fra bunnen av. Og uansett om vi vet AMD kommer til å gjøre det bedre, så er spørsmålet hvor mye bedre? Det vil jo være opp til de som lager spillet. Tror du f.eks at en 1 ukes konsoll port fra Ubisoft kommer til å ha bra Async Compute optimalisering? Jeg er enig i at Async Compute er fremtiden og veldig bra, samtidig stiller jeg meg litt tvilende til hvor mye det generelt vil gi i nær fremtid. Jeg har vel heller aldri sagt at testene ikke gjelder, og i så fall så har jeg ordlagt meg feil og ikke fått skrevet det jeg mener. Det jeg mener er at de er indikatorer. Jeg har sagt AotS er ubrukelig. Og i seg selv så er det det, og det står jeg med. Hvis du koder spillet spesifikt for AMD kort, er det ingen overraskelse når det gjør det bedre på AMD HW. Vi har mange eksempler med det fra Nvidia leiren også. Hvis vi hadde fått et nytt spill av typen Project Cars i DX12 for NVidia, så hadde det ikke betydd at NVidia var bedre i DX12 av den grunn. Jeg er ikke uenig i at AMD sannsynligvis er bedre i DX12. Jeg er uenig i at AMD er bedre i DX12. Stor forskjell. Folk går rundt og påstår at AMD er tydelig bedre enn NVidia i DX12, basert på 3 spill. 1 av spillene har det jo som patch, et er jo sterkt knyttet til AMD og DX12 og det siste er bare en standard AMD tittel med DX12 lagt inn på slutten. Det er ikke nok for konkluderende bevis. Spesielt ikke når HC har test som sår tvil om målingene for AotS. Husk at mitt originale innlegg aldri var et svar til noen. Jeg skrev det som et åpent innlegg rettet mot brukere på internet (ikke nødvendigvis dette forumet) som mener AMD er best i DX12, og har ment det siden første AotS benchmark, eller før det tom. I starten var og forskjellen klart større. Nvidia har fått klart bedre drivere for AotS over tid, som igjen bare støtter opp om at AotS er laget i samarbeid med AMD. Jeg har vel heller ikke påstått å være nøytral. I så fall var det feil av meg å påstå det. Det er en god del ting jeg liker bedre ved Nvidia enn AMD. Jeg tror heller ikke mennesker klarer å være skikkelig nøytrale i saker de bryr seg om. Jeg har skrevet ordet objektivt, men det er ikke det samme. Samtidig så har jeg og skrevet positive ting om AMD i det siste. I tråden om Crimson pakken var det mye negativitet, og hvor mange brukere synes det var utrolig bra? Det var ikke mange. En del hadde sunn skepsis til stabiliteten til noe helt nytt, men det var ikke mange som bare likte ideen og var positive pga det. Gode drivere og brukervennlige programmer som GeForce Experience er en av de store grunnene til at jeg liker Nvidia, og med Crimson så har jo AMD fått på plass mye av det samme (litt forksjeller, AMD er bedre på noe, Nvidia på andre ting). Jeg er og veldig fornøyd med at de valgte å lansere budsjettkortene sine og vente med entusiastkortene sine. Endelig så virker det som om AMD tenker litt mer økonomisk og på å selge kort, og mindre på å slå NVidia sitt toppkort i ytelse. Joda, Nvidia tjener nok mye på 1080, men det er så kostbart for AMD å konkurrere med det, og folk vil stort sett kjøpe Nvidia uansett. Ikke verdt det. Angående Gameworks, hva er nøytralt der? Er det galt av meg å like Gameworks? Blir jeg en Nvidia fanboy av det? Blir det galt å mene at Nvidia ikke crippler AMD ytelse? Den grafikkeffekten jeg fortsatt husker best, og liker best er PhysX i Borderlands 2. Noe som forøvrig hadde omtrent lik ytelse om PhysX var på GPU eller CPU med GTX 660 og i5. Og hvorfor kjøpte jeg GTX 660 når AMD hadde bedre price/perf? Fordi GTX 660 var på ganske bra tilbud. Jeg ser heller ikke hvordan det er Nvidia sin feil hvis dev baserer spillet sitt på PhysX eller mye tesselation, som er umulig å deaktivere. Nvidia tilbyr teknologien sin til bruk. Jeg har enda til gode å se Nvidia betale noen for å basere spillet sitt på PhysX. Hvis de gjør er det veldig galt selvfølgelig. Så lenge det ikke skjer er det devsene sin feil. Ser ikke hva Nvidia gjør galt ved å tilby masse teknologier for å være ærlig. Jeg vet at andre synes Gameworks er galt, og jeg forstår hvorfor. Likevel så ser jeg heller ingenting galt med å ikke se problemet med Gameworks uten å være Nvidia fanboy. Jeg ser heller ikke helt hvordan Gaming Evolved titler er så veldig forskjellige i praksis. Disse derimot har jeg ikke sett noen kritisere, samtidig som de samme personene kritiserer Gameworks. Det gir ikke mening for min del. @La Menthe: Vel, siden jeg åpenbart ikke vet noe som helst, så er jeg enig at det er best å avslutte diskusjonen her Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå