Nizzen Skrevet 2. mars 2016 Del Skrevet 2. mars 2016 Virker som om far cry primal liker båndbredde og fillrate. Gtx 980 er tydeligvis litt for tamt for dette spillet. 4GB virker å være for lite i ultra hd oppløsning (4k) Lenke til kommentar
ExcaliBuR Skrevet 2. mars 2016 Del Skrevet 2. mars 2016 (endret) Har ikke 980ti G1 6GB med minne? I så fall vil jeg vel si at 4GB med DDR minne er for tamt i UHD, hvis det er konklusjonen å trekke. Det ser heller ut til at AMDs tilnærming er "bedre" da det er teksturfillrate-kravet som tydeligvis øker mest med oppløsningen. Endret 2. mars 2016 av ExcaliBuR Lenke til kommentar
Nizzen Skrevet 2. mars 2016 Del Skrevet 2. mars 2016 Har ikke 980ti G1 6GB med minne? I så fall vil jeg vel si at 4GB med DDR minne er for tamt i UHD, hvis det er konklusjonen å trekke. Det ser heller ut til at AMDs tilnærming er "bedre" da det er teksturfillrate-kravet som tydeligvis øker mest med oppløsningen. Kan se slik ut ja! Det som er meget rart, er at gtx 980 er godt forran i 1440p, men bak i ultrahd. Snedige greier i denne testen med multigpu. Gtx 980 vs fury cfx http://www.guru3d.com/articles_pages/far_cry_primal_pc_graphics_performance_benchmark_review,11.html Lenke til kommentar
ExcaliBuR Skrevet 2. mars 2016 Del Skrevet 2. mars 2016 Hadde vært artig å sett dem teste med Eyefinity/Surround gaming også. Lenke til kommentar
Nizzen Skrevet 2. mars 2016 Del Skrevet 2. mars 2016 Hadde vært artig å sett dem teste med Eyefinity/Surround gaming også.Neppe, fordi det hadde blitt slideshow. 4k er allerede for mye for fury cfx. Under 60 fps allerede Lenke til kommentar
ExcaliBuR Skrevet 2. mars 2016 Del Skrevet 2. mars 2016 (endret) Nei, det er færre piksler å fylle enn UHD. 8 294 400 ("4k") vs 6 912 000 (7 257 600) for min 5760 (6048) x 1200. Edit: Må lese litt mer nøye, skjønte nå at du mente 60fps. Endret 2. mars 2016 av ExcaliBuR Lenke til kommentar
Malvado Skrevet 2. mars 2016 Del Skrevet 2. mars 2016 Men det liker ikke multi core. Patetisk koding når man ser spill som ikke bryr seg om du kjører mer enn 2 kjerner. http://www.guru3d.com/articles_pages/far_cry_primal_pc_graphics_performance_benchmark_review,9.html Forsåvidt enig med deg der , er på tide at utviklerne får brukt litt mer tid på å kunne utnytte bedre flerkjernede cpu'er og at eventuelt apu'er kombinert med gode gpu'er kan gi en videre ytelse økning om det lar seg gjøre. Noen ganger ser man jo at en del av arbeidet som eksempelvis fysikken har kunnet blitt tildelt en egen kjerne , noe som dessverre ikke skjer. Lenke til kommentar
Malvado Skrevet 4. mars 2016 Del Skrevet 4. mars 2016 Amd sin egen press release / blog i forhold til noen av de siste DX12 testene og Ashes of singularity : https://community.amd.com/community/gaming/blog/2016/03/04/radeon-gpus-win-big-in-directx-12-with-async-compute?sf21976983=1 Lenke til kommentar
La Menthe Skrevet 5. mars 2016 Del Skrevet 5. mars 2016 Mer skittent spill fra Nvidia, i Gears of War. Foruten den bevisste tåkeleggingen av Gameworks-funksjoner som fullstendig lammer AMD-kort (av opplagte grunner), ser det ut som Nvidia har klart å presse gjennom enda en ting: As it turns out HBAO+ wasn’t the only thing hidden behind a veil. Whilst digging into the game’s files a friend of WCCF – youtuber Blindrun – spotted a very interesting hidden game file. The file is BaseEngine.ini and it can be found in the following folder path on Windows 10 : C:\ProgramFiles\WindowsApps\Microsoft.DeltaPC_1.6.0.0_x64__8wekyb3d8bbwe\Engine\Config In BaseEngine.ini we spotted a very peculiar entry. “bDisablePhysXHardwareSupport=False”. More peculiar is the fact that this file cannot be edited in anyway. If it is, the game will simply overwrite any changes once it’s booted up and connected to Microsoft’s servers. The entry means that hardware accelerated PhysX is enabled by default in the game and because any changes to the file are overwritten automatically upon game start-up means it can’t be disabled. For those of you unaware PhysX is Nvidia’s proprietary game physics engine and can only be accelerated by Nvidia’s own graphics cards. If a competing GPU is detected by the PhysX driver, the work will instead be automatically offloaded onto the CPU. This in turn means that the feature will run disproportionately slower on non Nvidia equipped systems. 1 Lenke til kommentar
Nizzen Skrevet 5. mars 2016 Del Skrevet 5. mars 2016 Samma det vel. Er vel ingen som har amd skjermkort nå vel Vi har vel nVidia i påvente av noe bedre fra AMD Lenke til kommentar
La Menthe Skrevet 5. mars 2016 Del Skrevet 5. mars 2016 (endret) Det er reaksjonen din? Virkelig? Så det er helt greit at alle kunder med AMD-kort straffes for kjøpet de har gjort? For det er nettopp det Nvidia har drevet med det siste året; det virker for meg som Gameworks, en reaksjon på Mantle, delvis er skapt for å stikke kjepper i hjulene på AMD. Vi har nådd det punktet nå at det er vanskelig å nekte hva de driver på med. En ting er å skjule HBAO+ i innstillingene, som er sleipt nok i seg selv, men å påtvinge PhysX på spillerne (som skader alle andre enn Nvidia ekstra hard) er helt uakseptabelt. Samma det vel. Er vel ingen som har amd skjermkort nå vel Vi har vel nVidia i påvente av noe bedre fra AMD Du skal begynne å klage når du først får deg AMD-kort, altså? For disse problemene forsvinner ikke i løse luften så snart Polaris er på plass. Og det er heller ikke mye AMD kan gjøre med det, når de må lage drivere med en hånd bak ryggen og bind for øynene. Endret 5. mars 2016 av La Menthe 3 Lenke til kommentar
Nizzen Skrevet 6. mars 2016 Del Skrevet 6. mars 2016 Det er reaksjonen din? Virkelig? Så det er helt greit at alle kunder med AMD-kort straffes for kjøpet de har gjort? For det er nettopp det Nvidia har drevet med det siste året; det virker for meg som Gameworks, en reaksjon på Mantle, delvis er skapt for å stikke kjepper i hjulene på AMD. Vi har nådd det punktet nå at det er vanskelig å nekte hva de driver på med. En ting er å skjule HBAO+ i innstillingene, som er sleipt nok i seg selv, men å påtvinge PhysX på spillerne (som skader alle andre enn Nvidia ekstra hard) er helt uakseptabelt. Samma det vel. Er vel ingen som har amd skjermkort nå vel Vi har vel nVidia i påvente av noe bedre fra AMD Du skal begynne å klage når du først får deg AMD-kort, altså? For disse problemene forsvinner ikke i løse luften så snart Polaris er på plass. Og det er heller ikke mye AMD kan gjøre med det, når de må lage drivere med en hånd bak ryggen og bind for øynene. Du beit på tydeligvis 3 Lenke til kommentar
Gralle Skrevet 6. mars 2016 Del Skrevet 6. mars 2016 Ikke første gang du fremmer slike holdninger, så skjønner godt at folk reagerer. 2 Lenke til kommentar
Switters Skrevet 7. mars 2016 Del Skrevet 7. mars 2016 Han er vel litt som Northug, altså han har god peil på det han driver med, og liker å slenge med leppa? Var jo en av få som kjøpte Fury X så fort det var mulig, og han kommer garantert til å kjøpe AMD igjen hvis ytelsen er der! Lenke til kommentar
HKS Skrevet 7. mars 2016 Del Skrevet 7. mars 2016 Mer skittent spill fra Nvidia[/url], i Gears of War. Foruten den bevisste tåkeleggingen av Gameworks-funksjoner som fullstendig lammer AMD-kort (av opplagte grunner), ser det ut som Nvidia har klart å presse gjennom enda en ting:Så alt er altså slemme og ondskapsfulle Nvidia sin feil? Ingen kritikk til spillutvikler (som har portet fra konsol til PC) eller til AMD sitt driverteam? Lenke til kommentar
ExcaliBuR Skrevet 7. mars 2016 Del Skrevet 7. mars 2016 Tja, med fare for å deraile hele tråden: nVidia er vel kjent for å bruke lukkede løsninger, mens AMD har vært litt lettere å ha med å gjøre? Lenke til kommentar
Mantaturbo Skrevet 7. mars 2016 Del Skrevet 7. mars 2016 Her er forklaringen på at Gears Of War Ultimate Edition fungerer så dårlig på amd kort http://wccftech.com/nvidia-gameworks-visual-corruption-gears-war-ultimate-edition/ Lenke til kommentar
Dubious Skrevet 7. mars 2016 Del Skrevet 7. mars 2016 Skal mye til før en bytter over til AMD igjen Lenke til kommentar
HKS Skrevet 7. mars 2016 Del Skrevet 7. mars 2016 nVidia er vel kjent for å bruke lukkede løsninger, mens AMD har vært litt lettere å ha med å gjøre?Både og... AMD er også kjent for å selge ting som "åpne" noe som de ikke alltid i realiteten er. Jeg er i kontakt med både AMD og Nvidia, og synes generelt at Nvidia er lettere å ha med å gjøre. 2 Lenke til kommentar
efikkan Skrevet 7. mars 2016 Del Skrevet 7. mars 2016 Det er en myte at AMD er "åpnere" enn Nvidia. Begge har sine områder de er åpne på, "falskt" åpne og låst. Der er ingen vesentlig forskjell der bortsett fra at den ene overdriver mer og påstår de fant opp alt selv. 1 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå