ExcaliBuR Skrevet 20. mars 2015 Del Skrevet 20. mars 2015 Da er 15.3 Beta ute: http://support.amd.com/en-us/kb-articles/Pages/latest-catalyst-windows-beta.aspx Lenke til kommentar
ExcaliBuR Skrevet 27. mars 2015 Del Skrevet 27. mars 2015 Det ser ut som om DX12 kan gi dagens skjermkort en finfin ytelsesboost i gitte situasjoner, som selvfølgelig også er hintet til med DX12. (Denne artikkelen setter 290X mot et Titan X) http://www.pcworld.com/article/2900814/tested-directx-12s-potential-performance-leap-is-insane.html Lenke til kommentar
Nizzen Skrevet 27. mars 2015 Del Skrevet 27. mars 2015 Det ser ut som om DX12 kan gi dagens skjermkort en finfin ytelsesboost i gitte situasjoner, som selvfølgelig også er hintet til med DX12. (Denne artikkelen setter 290X mot et Titan X) http://www.pcworld.com/article/2900814/tested-directx-12s-potential-performance-leap-is-insane.html Så lenge det ikkje er testet i noen faktiske spill, så ja: *jesp*..... Lenke til kommentar
Andrull Skrevet 27. mars 2015 Del Skrevet 27. mars 2015 (endret) Sikkert de som lurer så nevner det like greit. Det er altaå ikke et mål på ytelsen til selve GPUen, men kan sies mer å være hvor effektiv den kan sammarbeide med CPUen. Testen er laget for å gi minimal belastning på store deler av GPUen som shadere osv..., på lik måte som CPU-testene til futuremark. Dvs. Grafikken er satt så enkel som mulig. Og bør følgelig vektlegges omtrent deretter. Men den får fint frem forskjellen på DX11 og Mantle/DX12 Det vil nok kunne forandre en del på hvordan spill i nær fremtid kan utvikle seg. Endret 27. mars 2015 av Andrull Lenke til kommentar
ExcaliBuR Skrevet 27. mars 2015 Del Skrevet 27. mars 2015 (endret) Jeg er helt enig, men er det ikke slik at DX2/Mantle skulle fjerne CPU overhead og gi muligheter for enormt flere draw calls? I så måte så er det kanskje mer interessant å se hva det faktisk kan gi i rene teorietiske situasjoner slik som denne. Spesielt når det meste vi har hatt hittil er estimater og utsagn fra subjektive kilder (så vidt meg bekjent). Jeg er inneforstått med at DX12/Mantle på magisk vis ikke fjerner begrensningene på båndbredde, fillrate osv på skjermkortene, men den kan sørge for at dette faktisk teller mer i spill enn det det gjør i dag. Derfor føler jeg dette er interessant =) Endret 29. mars 2015 av ExcaliBuR Lenke til kommentar
kremt Skrevet 27. mars 2015 Del Skrevet 27. mars 2015 Hvor ofte har man ikke hørt hvor bra ditt og datt skal bli, sånne ting som er nytt. Og man får store forhåpninger. Så blir det lansert og holder knapt halvparten av det som ble lovet fra produsenten. Tror dette kan bli en sånn situasjon selv om enhver ny versjon av DX er et stort sprang forover. Lenke til kommentar
Malvado Skrevet 27. mars 2015 Del Skrevet 27. mars 2015 Det som er svært bra med den nyeste utgaven av DX12 og som bør være en vekker for samtlige entusiaster her , inkludert sutrete merkevarefanatikere , er at det vil nå bli enklere å bruke et større antall kjerner i cpu'en , bedre bruk av den integrerte gpu'en i de cpu'ene som har dette samtidlig som at man også kan få brukt et dedikert skjermkort. Med andre ord , det er ikke lenger slik at man ikke kan utnytte fult ut 8 kjerner i cpu'en , eller må velge mellom å bruke kun det dedikerte skjermkortet fremfor Apu'en , nå vil all datakraft være med på å dra lasset og det kan være at vi feks kan se at man kan bruke forskjellige elementer for å nettopp øke ytelsen kraftig i spill og muligens fremtidens 3d spill. Dette er forsåvidt bra da både Intel , Nvidia og Amd nå kan begynne å komme med enda bedre produkter som blir utnyttet langt bedre og hvor sluttbrukeren får se et vesentlig ytelseforskjell i forhold til dagens SLI / Crossfire og lignende løsninger. Lenke til kommentar
Andrull Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 (endret) Vel, det har jo skjedd ganske mye fra tidligere DirectX-versjoner. Problemet er at effekten er veldig glidende, så glidende at det vil virke omtrent irrelevant. Men hadde vi ikke fått nye API'er så hadde nok ikke spillene sett ut slik de gjør i dag. F.eks: Det er mulig å kode etter flere kjerner, og visse benchmarks og spill er i grunn ganske flinke her, samt gode til å optimalisere. Men med nye mer effektive metoder så blir det potensielt lettere for spillutviklere å lage bedre og mer optimaliserte spill. Ja, og godt er nok det, da det som nevnt fortsett er på en kjerne brøkdelen som oftest skjer. Om de kaster det bort med å lansere spillet en måned tidligere (mindre optimalisering), bare bruker det som gimmick, eller at de ikke tar i bruk mulighetene, så ender man på forbrukeren sin side med det samme. Og derfor tipper jeg nok at vi vil fortsette med å få en glidende overgang, hvor vi forbrukere ikke vil merke noen spesielt store rykk og napp i grafikknivået. Selv om vi ultimat sett på lang sikt absolutt vil være tjent med det. Endret 29. mars 2015 av Andrull Lenke til kommentar
Malvado Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Vel, det har jo skjedd ganske mye fra tidligere DirectX-versjoner. Problemet er at effekten er veldig glidende, så glidende at det vil virke omtrent irrelevant. Men hadde vi ikke fått nye API'er så hadde nok ikke spillene sett ut slik de gjør i dag. F.eks: Det er mulig å kode etter flere kjerner, og visse benchmarks og spill er i grunn ganske flinke her, samt gode til å optimalisere. Men med nye mer effektive metoder så blir det potensielt lettere for spillutviklere å lage bedre og mer optimaliserte spill. Ja, og godt er nok det, da det som nevnt fortsett er på en kjerne brøkdelen som oftest skjer. Om de kaster det bort med å lansere spillet en måned tidligere (mindre optimalisering), bare bruker det som gimmick, eller at de ikke tar i bruk mulighetene, så ender man på forbrukeren sin side med det samme. Og derfor tipper jeg nok at vi vil fortsette med å få en glidende overgang, hvor vi forbrukere ikke vil merke noen spesielt store rykk og napp i grafikknivået. Selv om vi ultimat sett på lang sikt absolutt vil være tjent med det. En av de tingene som nå blir enklere er overgangen fra "konsollversjon" til PC versjon vil gå langt glattere. Før så vi jo forskjellen der spillene var "dårlig optimalisert" til pc mens de kunne gå glatt på konsoll da de var kodet to the metal langt bedre. DX12 er jo utvilsomt et skritt i riktig rettning og utifra det et par utviklere har twittret så tror jeg at vi kommer til å få se mye tøfft på pc nå... Lenke til kommentar
MistaPi Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 (endret) Hva som kan komme med kompleksitet og spilldesign forøvrig i fremtidige spill når man ikke f.eks lenger er begrenset av et ganske lavt antall draw calls er det mest spennende her. Situasjonen er også ganske forskjellig fra DX10/11 mtp hw støtte (alle Nvidia kort fom Fermi og alle AMD GCN kort vil kunne dra nytte av DX12), samt at konsollene ikke vil holde igjen denne gangen mtp et eldre API/GPU featureset slik det var med PS360 (DX9 level featureset), vel kanskje bortsett fra enkelte DX12-level funksjoner. En annen fordel skal være at når spill utviklerene får mer kontroll vil ikke GPU driveren spille så stor rolle lenger mtp feilrettinger og ytelse optimaliseringer. Driverene vil nok også bli en god del mindre i størrelse og komplekistet når man ikke lenger trenger en masse per-spill patcher/fixer. Man kan jo se dette er et stort problem i dag mtp nesten alle store spill lanseringer også kommer med en driver lansering ("game ready driver"). Endret 29. mars 2015 av MistaPi Lenke til kommentar
DuraN Skrevet 31. mars 2015 Del Skrevet 31. mars 2015 Det ser ut som om DX12 kan gi dagens skjermkort en finfin ytelsesboost i gitte situasjoner, som selvfølgelig også er hintet til med DX12. (Denne artikkelen setter 290X mot et Titan X) http://www.pcworld.com/article/2900814/tested-directx-12s-potential-performance-leap-is-insane.html Den setter ikke et 290X mot Titan X. Den setter DX11 på R9 290X mot DX12 på R9 290X, og DX11 på Titan X mot DX12 på Titan X. Lenke til kommentar
Nizzen Skrevet 1. mai 2015 Del Skrevet 1. mai 2015 AMD klarer ikkje engang å få til CFX og Freesync med en gang Single-GPU AMD FreeSync-driver March 19th AMD is very excited that monitors compatible with AMD FreeSync™ technology are now available in select regions. We know gamers are excited to bring home an incredibly smooth and tearing-free PC gaming experience powered by AMD Radeon™ GPUs and AMD A-Series APUs. We’re pleased to announce that a compatible AMD Catalyst™ graphics driver to enable AMD FreeSync™ technology for single-GPU configurations will be publicly available on AMD.com starting March 19, 2015. Support for AMD CrossFire™ configurations will be available the following month in April, 2015. (KANSKJE) Som jeg visste! AMD delays FreeSync support for multi-GPU systems http://www.overclock.net/t/1553512/techreport-amd-delays-freesync-support-for-multi-gpu-systems#post_23858213 Lenke til kommentar
Gabri3L Skrevet 1. mai 2015 Del Skrevet 1. mai 2015 ^^ Ikke sjokkerende, men skjønner ikke helt denne skadefryden? Hvordan er det med DSR SLI og G-Sync by the way? Lenke til kommentar
Tåkefyrste Skrevet 1. mai 2015 Del Skrevet 1. mai 2015 Man skulle vel tro de fleste ønsket at AMD lyktes? Virker ikke slik til tider. 1 Lenke til kommentar
Andrull Skrevet 1. mai 2015 Del Skrevet 1. mai 2015 ^^ Ikke sjokkerende, men skjønner ikke helt denne skadefryden? Hvordan er det med DSR SLI og G-Sync by the way? Kan ikke se at det skal være noen problemer der. DSR er jo bare Anti-Aliasing (rettere sagt høyere render-oppløsning), som jeg ikke har hørt skal ha noe problem med G-sync og/eller SLI. Lenke til kommentar
Nizzen Skrevet 1. mai 2015 Del Skrevet 1. mai 2015 (endret) ^^ Ikke sjokkerende, men skjønner ikke helt denne skadefryden? Hvordan er det med DSR SLI og G-Sync by the way? Kan ikke se at det skal være noen problemer der. DSR er jo bare Anti-Aliasing (rettere sagt høyere render-oppløsning), som jeg ikke har hørt skal ha noe problem med G-sync og/eller SLI. G-sync + sli + DSR fungerer. Det som ikkje fungerer enda er 1440p + g-sync + sli + DSR. Altså swift sli dsr Denne lista er ikkje oppdatert. Sli og 1080p ser ut til å fungere med dsr og g-sync Dynamic Super Resolution (DSR) Support Reference ChartAnswer ID 3597 | Published 10/23/2014 05:07 PM | Updated 11/17/2014 08:57 AMDynamic Super Resolution (DSR) Support Reference Chart Endret 1. mai 2015 av Nizzen Lenke til kommentar
Andrull Skrevet 1. mai 2015 Del Skrevet 1. mai 2015 (endret) Wait, what? Merkverdige greier. Gjelder dette også om du pusher SSAA i spill (DSR i sin reneste form) med 1440p og G-sync? F.eks 200 % res.scale i BF4. Og fungerer det igjen om du senker Res.scale på 1440p noe ned til f.eks 150 % som tilsvarer DSR 1080p. Endret 1. mai 2015 av Andrull Lenke til kommentar
Nizzen Skrevet 1. mai 2015 Del Skrevet 1. mai 2015 Wait, what? Merkverdige greier. Gjelder dette også om du pusher SSAA i spill (DSR i sin reneste form) med 1440p og G-sync? F.eks 200 % res.scale i BF4. Og fungerer det igjen om du senker Res.scale på 1440p noe ned til f.eks 150 % som tilsvarer DSR 1080p. Er bare DSR i selve nvidia controlpanel som ikkje fungerer. Det er der ikkje med 1440p og g-sync. Res scale i bf fungerer Lenke til kommentar
Andrull Skrevet 1. mai 2015 Del Skrevet 1. mai 2015 Thanks, skjønner. Rimelig kunstig problem som høres ut som noe software-begrensning med andre ord. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå