Gå til innhold

AMD Radeon R300-serien/fiji diskusjon og spekulasjon


Anbefalte innlegg

Videoannonse
Annonse

Jeg må innrømme jeg synes det er mye "agendaer" ute å går i denne saken. En ansatt i Oxide har forsøkt å få frem deres side av saken med et innlegg på et forum. Så tar tech pressen å klipper ut noen sitater fra den posten og tolker det til å bety det som de allerede mener. Les heller innlegget i sin helhet her. Og gjør dere opp egen mening.

Lenke til kommentar

Med tanke på det N O R E N G, efikkan og HKS har sagt om den ene benchmarken så er det totalt ubetydelig. Så jeg ville ikke lest noe inn i det.

 

Med tanke på at mange her på forumet også velger side og ønsker en ensidig debatt avventer jeg heller til spillene er ute på Dx12 før jeg henger meg for mye opp i hva enkeltpersoner kommer med.

 

Sånn sett så tipper jeg at Nvidia vil ta igjen forspranget til Amd uten problemer med mindre noe er alvorlig galt med arkitekturen deres (som feks egner seg best til dx11 og ikke dx12). Uansett så ser det ut som at de kan skylde på dårlige drivere for Windows 10 og DX12 for tiden i alle fall.

  • Liker 2
Lenke til kommentar

 

 Uansett så ser det ut som at de kan skylde på dårlige drivere for Windows 10 og DX12 for tiden i alle fall.

 

 

Nei, dette stemmer ikke. Det er AMD som har dårlige drivere, det vet jo alle. ;)

 

 

Hysj! ikke lov til å banne i kirka :p

 

Dette er jo ikke den første gangen Nvidia ble tatt litt på senga , når Amd lanserte Mantle kom Nvidia med påstander om at en driveroppdatering (som jeg fremdeles ikke har sett enda ) skulle gi kortene langt bedre ytelse så de så ikke på mantle som en konkurrent.

Spol raskt fremover og vi ser nå at i DX12 så har mye av det Amd fikk til i Mantle blitt tatt i bruk til fordel for oss alle.

Så kan man spørre seg om MS sin implementering av Mantle gjør at kortene til Amd får fordeler mens Nvidia denne gangen ikke får det med det første?

 

Dette er jo litt spekulasjon fra min side da DX12 og spill / tester er såpass nye at det er vanskelig å komme til en konklusjon enda , om noen hadde spurt meg om han / hun burde kjøpe et 970 kort eller et 390 kort hadde jeg trolig spurt om hva som spilles og heller gitt et råd utifra det ( Trolig 970 ).

Lenke til kommentar

Dette er jo ikke den første gangen Nvidia ble tatt litt på senga , når Amd lanserte Mantle kom Nvidia med påstander om at en driveroppdatering (som jeg fremdeles ikke har sett enda ) skulle gi kortene langt bedre ytelse så de så ikke på mantle som en konkurrent.

Sammenlign generell DX11 ytelse på Nvidia med AMD så ser du denne "optimeringen"...

Uansett så er PR-avdelingen flinke til å overdrive uansett om de tilhører Nvidia eller AMD!

 

Deretter sammenligner du asynchronous compute som er en feature i DirectX12 med en feature i Nvidia Gameworks som er proprietær software.

Nei jeg synes ikke det er en god sammenligning.

Asynchronous compute er støttet på 2. generasjon Maxwell, men der mangler det enda endel oppsettet av GPU scheduler før dette fungerer som det skal.

Funksjonaliteten som asynchronous compute kommer også til å brukes i CUDA, og er ventet i CUDA 8 mot slutten av året. I CUDA er denne teknikken kjent som "GPUDirect Async" og brukes slik at GPU selv kan kontrollere trafikk inn til host og til andre PCIe enheter som for eksempel et InfiniBand kort eller PCIe nettverk.

  • Liker 1
Lenke til kommentar

 

Med tanke på det N O R E N G, efikkan og HKS har sagt om den ene benchmarken så er det totalt ubetydelig. Så jeg ville ikke lest noe inn i det.

 

Med tanke på at mange her på forumet også velger side og ønsker en ensidig debatt avventer jeg heller til spillene er ute på Dx12 før jeg henger meg for mye opp i hva enkeltpersoner kommer med.

 

Sånn sett så tipper jeg at Nvidia vil ta igjen forspranget til Amd uten problemer med mindre noe er alvorlig galt med arkitekturen deres (som feks egner seg best til dx11 og ikke dx12). Uansett så ser det ut som at de kan skylde på dårlige drivere for Windows 10 og DX12 for tiden i alle fall.

 

Ta igjen forspranget? Er vel strengt tatt AMD som har tatt igjen forspranget nV hadde i DX11, med tanke på at DX12-ytelsen er noenlunde lik på de fleste kortene i samme prisklasse? Ref Ashes-benchmark altså.

Lenke til kommentar

 

Med tanke på det N O R E N G, efikkan og HKS har sagt om den ene benchmarken så er det totalt ubetydelig. Så jeg ville ikke lest noe inn i det.

 

Med tanke på at mange her på forumet også velger side og ønsker en ensidig debatt avventer jeg heller til spillene er ute på Dx12 før jeg henger meg for mye opp i hva enkeltpersoner kommer med.

 

Sånn sett så tipper jeg at Nvidia vil ta igjen forspranget til Amd uten problemer med mindre noe er alvorlig galt med arkitekturen deres (som feks egner seg best til dx11 og ikke dx12). Uansett så ser det ut som at de kan skylde på dårlige drivere for Windows 10 og DX12 for tiden i alle fall.

 

Jeg er helt enig, man burde bare se på det som om ingen info eksisterer ang ytelse på DX12, og ergo ikke ha store meningen om det før vi ser velutviklede spill komme.

Dersom vi ser på historien så vil ikke nVidia ligge noe særlig etter AMD tho, så jeg forventer ett jevt løp dersom AMD klarer å lage gode kort.

Lenke til kommentar
Det er mange som ikke forstår hvorfor enkelte spill er bedre tilpasset den ene produsenten enn den andre. Det trenger ikke å bety at utvikleren har "gått til sengs" med én av produsentene, det kan enkelt og greit være at den ene produsenten har vært mer prioritert under hele utviklingsprosessen slik at små designvalg har favorisert denne produsenten. For kritiske punkter i pipeline kan små detaljer utgjøre mange prosent i ytelseforskjell, f.eks. størrelse på bufre, rekkefølge på operasjoner eller den logiske inndelingen i shader-programmet. Hvis produsent A blir grundig testet mens produsent B bare blir testet raskt så kan utviklere fort gjøre designvalg som favoriserer produsent A, uten at de har hatt noen agenda eller brukt spesialtilpasninger. Det er alt for få utviklere som har tid til å teste hver build grundig på nok maskinvare.

 

Når det gjelder Ashes of the Singularity så er det et spill som var designet for Mantle og deretter portet til Direct3D. Og det sier seg selv at et spill som har vært utviklet for GCN kan ha mange små ulemper på andre arkitekturer uten at det er gjort med vilje.

 

Men viktigst av alt så er ikke dette spillet et prakteksempel på godt spilldesign. Alle som studerer det vil se at grafikken ikke er spesielt imponerende i dag. Nå vet trolig få av dere hva "draw calls" virkelig er, men det er et dårlig tegn når en spillutvikler skryter av hvor mange draw calls de har klart å presse inn for å tegne den (dårlige) grafikken der. Det er et klart tegn på et ineffektivt design. Å skryte av flest mulig draw calls er like smart som en konsulent som skryter av hvor mange kloc han har brukt på en implementasjon, eller en snekker som skryter av hvor ekstremt mange spiker han har brukt på et hus.

 

Det er som at så fort det kommer rykter som er fordelsaktig for underdogen så forsvinner all kritisk sans. Dette har vi jo sett i flere år mellom AMD og Intel.

Ja, dessverre.

Jeg forholder meg til fakta fremfor hva som er politisk korrekt, så får jeg bare bli upopulær.

 

Så lenge AMD ikke har tilgang på kildekoden i hairworks kan på ingen måte sammenlignes.

Fortell meg hvorfor AMD skulle trenge kildekoden til programvare som kjører på driveren deres? Bruker AMD å ha kildekoden til spill og andre biblioteker?
Lenke til kommentar

 

Det er mange som ikke forstår hvorfor enkelte spill er bedre tilpasset den ene produsenten enn den andre. Det trenger ikke å bety at utvikleren har "gått til sengs" med én av produsentene, det kan enkelt og greit være at den ene produsenten har vært mer prioritert under hele utviklingsprosessen slik at små designvalg har favorisert denne produsenten. For kritiske punkter i pipeline kan små detaljer utgjøre mange prosent i ytelseforskjell, f.eks. størrelse på bufre, rekkefølge på operasjoner eller den logiske inndelingen i shader-programmet. Hvis produsent A blir grundig testet mens produsent B bare blir testet raskt så kan utviklere fort gjøre designvalg som favoriserer produsent A, uten at de har hatt noen agenda eller brukt spesialtilpasninger. Det er alt for få utviklere som har tid til å teste hver build grundig på nok maskinvare.

 

Når det gjelder Ashes of the Singularity så er det et spill som var designet for Mantle og deretter portet til Direct3D. Og det sier seg selv at et spill som har vært utviklet for GCN kan ha mange små ulemper på andre arkitekturer uten at det er gjort med vilje.

 

Men viktigst av alt så er ikke dette spillet et prakteksempel på godt spilldesign. Alle som studerer det vil se at grafikken ikke er spesielt imponerende i dag. Nå vet trolig få av dere hva "draw calls" virkelig er, men det er et dårlig tegn når en spillutvikler skryter av hvor mange draw calls de har klart å presse inn for å tegne den (dårlige) grafikken der. Det er et klart tegn på et ineffektivt design. Å skryte av flest mulig draw calls er like smart som en konsulent som skryter av hvor mange kloc han har brukt på en implementasjon, eller en snekker som skryter av hvor ekstremt mange spiker han har brukt på et hus.

 

Det er som at så fort det kommer rykter som er fordelsaktig for underdogen så forsvinner all kritisk sans. Dette har vi jo sett i flere år mellom AMD og Intel.

Ja, dessverre.

Jeg forholder meg til fakta fremfor hva som er politisk korrekt, så får jeg bare bli upopulær.

 

Så lenge AMD ikke har tilgang på kildekoden i hairworks kan på ingen måte sammenlignes.

Fortell meg hvorfor AMD skulle trenge kildekoden til programvare som kjører på driveren deres? Bruker AMD å ha kildekoden til spill og andre biblioteker?

 

Spør du meg og mange andre er ashes noe av det dårligste spillet Grafik fra 2005 og 70 fps max :3 lowest i 1080P, Derfor å bry seg om det spillet er bare idioti

Lenke til kommentar

 

Spør du meg og mange andre er ashes noe av det dårligste spillet Grafik fra 2005 og 70 fps max :3 lowest i 1080P, Derfor å bry seg om det spillet er bare idioti

 

 

 

Nå handler vel først og fremst den demonen om hvor mange units du kan trøke inn i et strategispill uten lagg og ikke hvor fin grafikken er. Blir veldig feil og sammenligne det mot FPS spill som du gjorde først i alle fall.

Lenke til kommentar

 

 

 

Spør du meg og mange andre er ashes noe av det dårligste spillet Grafik fra 2005 og 70 fps max :3 lowest i 1080P, Derfor å bry seg om det spillet er bare idioti

 

 

 

Nå handler vel først og fremst den demonen om hvor mange units du kan trøke inn i et strategispill uten lagg og ikke hvor fin grafikken er. Blir veldig feil og sammenligne det mot FPS spill som du gjorde først i alle fall.

Da er jo det CPU og ikke GPU krevende

 

 

Er jo i slike tilfeller mantel og nå DX12 hjelper uten at jeg sier at NVIDIA ikke kan gjøre det like bra eller bedre her. Er for øvrig enig i at vi må vente på flere spill for en konklusjon om dette temaet, men vi har i alle fall en indikasjon på at AMD har satset på DX12 og mindre på DX11 den siste tiden (driver siden), noe som er naturlig med lite penger.

Endret av Gralle
Lenke til kommentar

 

 

 

 

Spør du meg og mange andre er ashes noe av det dårligste spillet Grafik fra 2005 og 70 fps max :3 lowest i 1080P, Derfor å bry seg om det spillet er bare idioti

 

 

 

Nå handler vel først og fremst den demonen om hvor mange units du kan trøke inn i et strategispill uten lagg og ikke hvor fin grafikken er. Blir veldig feil og sammenligne det mot FPS spill som du gjorde først i alle fall.

Da er jo det CPU og ikke GPU krevende

 

 

Er jo i slike tilfeller mantel og nå DX12 hjelper uten at jeg sier at NVIDIA ikke kan gjøre det like bra eller bedre her. Er for øvrig enig i at vi må vente på flere spill for en konklusjon om dette temaet, men vi har i alle fall en indikasjon på at AMD har satset på DX12 og mindre på DX11 den siste tiden (driver siden), noe som er naturlig med lite penger.

 

Vi får se ;) 

Lenke til kommentar

Strategispill har typisk høy CPU-last for AI, pathfinding osv. Alt dette har da ingenting med rendering å gjøre, så hvorfor skulle et typisk strategispill være "bedre egnet" til Direct3D 12?

Av den grunn at CPU blir avlastet når du går over til DX12 eller vulkan fra DX11 så du kan ha flere AI i sving (som igjen øker CPU load). Mer ting på skjermen altså.

Lenke til kommentar

Er jo i slike tilfeller mantel og nå DX12 hjelper uten at jeg sier at NVIDIA ikke kan gjøre det like bra eller bedre her. Er for øvrig enig i at vi må vente på flere spill for en konklusjon om dette temaet, men vi har i alle fall en indikasjon på at AMD har satset på DX12 og mindre på DX11 den siste tiden (driver siden), noe som er naturlig med lite penger.

Hvis AMD har gjort dette så er det i så fall nok en dårlig avgjørelse.

DX11 kommer til å være med oss lenge. Mange av spillene som kommer om et år kommer fremdeles til å bruke DX11.

 

Det er en grunn til at all funksjonaliteten som er lagt til DX12 (med unntak av det som har med low-level å gjøre) har blitt lagt til DX11 (DirectX 11.3). DX12 passer rett og slett ikke for alle, det vil gjøre utviklingen av spillet mye mer komplisert, og veldig mye av ansvaret for optimering, minnebruk, etc. kommer til å falle ned på spillutviklerne. Dette er ikke akkurat en gruppe som er kjent for å levere bug-frie applikasjoner heller.

 

DX12 kommer til å være kjempefint for de få om lager AAA-titler, men mange andre spill, og typiske indie-spill kommer nok fremdeles til å bruke DX11.

Jeg ser iallefall på DX12 med både glede og skrekk... :)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...