efikkan Skrevet 24. juli 2015 Del Skrevet 24. juli 2015 Såfremt det ikke foreligger spesifikke patenter på funksjonalitet så er det ingenting Microsoft kan gjøre for å hindre konkurrerende API. Det meste av funksjonaliteten finnes allerede for OpenGL, og lavere overhead er ikke akkurat noe som kan patenteres. Alle utviklere har erfart at når lignende funksjonalitet implementeres i ulike API eller biblioteker så blir det oftest store likheter. Derfor er det den mest naturlige ting i verden at deler av Direct3D 12 ligner på Mantle og tilsvarende for Vulkan. Vi vet at Direct3D 12 ble skissert før kompatible GPUer forlot tegnebrettet, og det sier seg selv at det har vært bearbeidet i årevis før offentliggjøring. Det er rett og slett en umulighet at Mantle oppstod før Direct3D 12. Nei, akkurat der er jeg uenig med deg. Du har faktisk per dags dato ikke kommet med en eneste kilde til at mye av funksjonaliteten som Amd fikk på plass i Mantle var planlagt i forkant av at Mantle ble en realitet , faktisk var det mye som tydet på at Microsoft var langt mer opptatt av Xbox 360 enn Windows spill markedet , noe definitivt MS sine markedsandeler og nesten ikke eksisterende Games for Windows (Marketplace) viser. Hvis du tenker deg om så forstår du at Direct3D 12 har vært planlagt så tidlig som ~2011 for at 2.generasjons GCN og Maxwell skulle få det med tidlig i designfasen. Flere av egenskapene til Direct3D 12 var kjent for noen av oss før Mantle, her er noen få eksempler: - Asynkron kommunikasjon (GCN publisert i 2011, og Maxwell) - Binding av ressurser og interne tilstander. Alt dette er ting som må implementeres i maskinvaren tidlig i designfasen. I tillegg var det snakk om lavnivåfunksjonalitet som fremtiden for Direct3D allerede i 2011. De som tror at Direct3D 12 ble laget etter Mantle har et enormt forklaringsproblem med hvordan de ulike GPUene (inkl. Nvidia) har klart å få på plass den riktige funksjonaliteten uten å vite om (det som skulle bli) Direct3D 12 mange år i forveien. Vi vet at mange års planlegging har vært tilfellet før. Et godt eksempel er Tessellation som var planlagt til Direct3D 10, som til og med ble nevnt offentlig før det ble kuttet bort sent i utformingen og utsatt til DirectX 11. Både AMD og Nvidia demonstrerte funksjonaliteten, og AMD demonstrerte det både som utvidelse til Direct3D 10 og OpenGL 3. Jeg har testet det både for AMD og Nvidia, og det fungerte fint. At Intel ikke klarte/ville implementere dette er nok noe av grunnen til at tessellation ble utsatt. Og det er nok heller ikke uten grunn at vi i Direct3D 11 og 12 har ulike nivåer av støtte, siden Intel m.fl. er betydlige bremseklosser på utviklingen. Mantle ble enkelt og greit unnfanget fordi AMD ble lei av å vente på neste DirectX, så tidlig i 2013 bestemte de seg for å gå sine egne veier. På dette tidspunktet visste de at neste Direct3D var noe frem i tid eller fremdeles ikke var fastsatt. Hvis jeg var AMD så ville jeg nok vurdert det samme selv, men jeg ville nok valgt en løsning som en utvidelse til Direct3D fremfor et separat API. DX12 utviklingen stoppet opp pga manglende kunnskap! Leste et innlegg der AMD måtte sende sine beste menn for å hjelpe dem med DX12. Koden til mantle og DX12 er veldig lik! Og hvem kopierer hvem? Du sier at mantle kopierer DX12, men jeg finner bare kilder som sier det motsatte! Jeg kan være enig med deg at DX12 ble påbegynt før, men microsoft hadde ikke kunnskapen til å fullføre DX12, uten hjelp fra utolmodige AMD.Noen har nok misforstått litt her. AMD, Nvidia og Intel har hjulpet Microsoft med Direct3D 12, i likhet med versjon 11, 10, 9, osv. Direct3D er utformet av representanter fra overnevnte. Selv om det er Microsoft som har det administrative ansvaret, så er det GPU-produsentene som driver frem egenskapene til Direct3D. Men finner man et kort som har en gunstig pris så ser man jo at det er midt mellom 970 og 980 i ytelse og at man da fort kan ta en vurdering om man ønsker det. Forskjellen på strømforbruket i løpet av et år er heller ikke så veldig stor avhengig av hvor mye man spiller , men det er vel snakk om 20 til 50w maks i de fleste tilfeller.Når vi snakker om energiforbruk så er det ikke strømregningen vi primært tenker på, men hvor mye varme som genereres inne i kabinettet. Mer kjølebehov medfører mer støy og kostnader, så det er selvsagt noe som betyr noe. Selv for de som har kabinetter med god kjøling hvor R9 390X ikke utgjør noe problem, så ønsker de selvsagt minst mulig varme. Da må R9 390X tilby noe mer for å rettferdiggjøre kjøp. Når et fabrikkoverklokket GTX 970 kan måle seg med et R9 390X til en lavere pris og lavere energiforbruk så er det vanskelig å rettferdiggjøre et kjøp av R9 390X. R9 390X må enten tilby noe annet betydningsfullt eller lavere pris (<3200 kr). 3 Lenke til kommentar
DuraN Skrevet 27. juli 2015 Del Skrevet 27. juli 2015 http://www.techpowerup.com/reviews/AMD/R9_Fury_X_Overvoltage/ "Overclockers' dream" Lenke til kommentar
Nizzen Skrevet 27. juli 2015 Del Skrevet 27. juli 2015 http://www.techpowerup.com/reviews/AMD/R9_Fury_X_Overvoltage/ "Overclockers' dream" Da får du et Fury x tilbake snart fra meg Føkk AMD igen for å si det slik Lenke til kommentar
N o r e n g Skrevet 27. juli 2015 Del Skrevet 27. juli 2015 (endret) http://www.techpowerup.com/reviews/AMD/R9_Fury_X_Overvoltage/ "Overclockers' dream" Jeg forventet 1250MHz med 1.35V, ikke noe voldsomt bedre det heller. Dette er jo svakere enn 390X... Mistenker at AMD designet GCN-arkitekturen med forventning om å kjøre GPUene på rundt 800-900 MHz, og at klokkene vi ser i dagens GPUer er et resultat av at Nvidias Maxwell-arkitektur booster opp til nesten 1200 MHz ut av eska... Endret 27. juli 2015 av N o r e n g Lenke til kommentar
DuraN Skrevet 27. juli 2015 Del Skrevet 27. juli 2015 http://www.techpowerup.com/reviews/AMD/R9_Fury_X_Overvoltage/ "Overclockers' dream" Jeg forventet 1250MHz med 1.35V, ikke noe voldsomt bedre det heller. Dette er jo svakere enn 390X... Mistenker at AMD designet GCN-arkitekturen med forventning om å kjøre GPUene på rundt 800-900 MHz, og at klokkene vi ser i dagens GPUer er et resultat av at Nvidias Maxwell-arkitektur booster opp til nesten 1200 MHz ut av eska... Tror nok det. Kan det ha noe med prosess å gjøre også? De hadde nok ikke forventet å fortsatt ligge på 28nm (både AMD og nV). Nå ser vi jo at Maxwell knapt skalerer over 1.25v med mindre du kjører minusgrader, så nV har strammet inn de også. Hadde Maxwell hatt skalering på spenning likt Kepler kunne vi kjørt 1700-1800 på vann... Lenke til kommentar
N o r e n g Skrevet 27. juli 2015 Del Skrevet 27. juli 2015 http://www.techpowerup.com/reviews/AMD/R9_Fury_X_Overvoltage/ "Overclockers' dream" Jeg forventet 1250MHz med 1.35V, ikke noe voldsomt bedre det heller. Dette er jo svakere enn 390X... Mistenker at AMD designet GCN-arkitekturen med forventning om å kjøre GPUene på rundt 800-900 MHz, og at klokkene vi ser i dagens GPUer er et resultat av at Nvidias Maxwell-arkitektur booster opp til nesten 1200 MHz ut av eska... Tror nok det. Kan det ha noe med prosess å gjøre også? De hadde nok ikke forventet å fortsatt ligge på 28nm (både AMD og nV). Nå ser vi jo at Maxwell knapt skalerer over 1.25v med mindre du kjører minusgrader, så nV har strammet inn de også. Hadde Maxwell hatt skalering på spenning likt Kepler kunne vi kjørt 1700-1800 på vann... Det jeg mener er at mye tyder på at AMD ikke regnet med at 28nm-noden skulle være så god: 7970 ble lansert i 2012 med 925 MHz kjernefrekvens, ganske grei ytelse/watt, og et helt rått klokkepotensiale der flere rapporterte frekvenser opp mot 1300 MHz med vannkjøling, som var/er svært uvanlig for ATI/AMD-GPUer. Sannsynligvis er GCN designet for å levere optimal ytelse/watt ved rundt 850-900 MHz klokkefrekvens, om det er tilfelle er det ikke rart om AMD sliter med ytelse/watt. 1 Lenke til kommentar
piplop Skrevet 27. juli 2015 Del Skrevet 27. juli 2015 http://www.techpowerup.com/reviews/AMD/R9_Fury_X_Overvoltage/ "Overclockers' dream" Jeg forventet 1250MHz med 1.35V, ikke noe voldsomt bedre det heller. Dette er jo svakere enn 390X... Mistenker at AMD designet GCN-arkitekturen med forventning om å kjøre GPUene på rundt 800-900 MHz, og at klokkene vi ser i dagens GPUer er et resultat av at Nvidias Maxwell-arkitektur booster opp til nesten 1200 MHz ut av eska... Tror nok det. Kan det ha noe med prosess å gjøre også? De hadde nok ikke forventet å fortsatt ligge på 28nm (både AMD og nV). Nå ser vi jo at Maxwell knapt skalerer over 1.25v med mindre du kjører minusgrader, så nV har strammet inn de også. Hadde Maxwell hatt skalering på spenning likt Kepler kunne vi kjørt 1700-1800 på vann... Trenger ikke krympe 28NM når de kan dra så mye styrke ut av det. Maxwell skalerer over 1.25v dem, bare å sette på annen bios. Som jeg har gjort med mine Titan X,s vent å se til de feteste kingpin ed 980TI blir OC du så skjønner du. Alt handler om penger der Nvidia pascal blir mye mindre NM Kepler kan du ikke kjøre 1.7-1.8ghz på vann nei.. Har hatt 4 STK 780TI classified så jeg vet 1.5ghz har jeg hatt dem opp til Lenke til kommentar
DuraN Skrevet 28. juli 2015 Del Skrevet 28. juli 2015 http://www.techpowerup.com/reviews/AMD/R9_Fury_X_Overvoltage/ "Overclockers' dream" Jeg forventet 1250MHz med 1.35V, ikke noe voldsomt bedre det heller. Dette er jo svakere enn 390X... Mistenker at AMD designet GCN-arkitekturen med forventning om å kjøre GPUene på rundt 800-900 MHz, og at klokkene vi ser i dagens GPUer er et resultat av at Nvidias Maxwell-arkitektur booster opp til nesten 1200 MHz ut av eska... Tror nok det. Kan det ha noe med prosess å gjøre også? De hadde nok ikke forventet å fortsatt ligge på 28nm (både AMD og nV). Nå ser vi jo at Maxwell knapt skalerer over 1.25v med mindre du kjører minusgrader, så nV har strammet inn de også. Hadde Maxwell hatt skalering på spenning likt Kepler kunne vi kjørt 1700-1800 på vann... Trenger ikke krympe 28NM når de kan dra så mye styrke ut av det. Maxwell skalerer over 1.25v dem, bare å sette på annen bios. Som jeg har gjort med mine Titan X,s vent å se til de feteste kingpin ed 980TI blir OC du så skjønner du. Alt handler om penger der Nvidia pascal blir mye mindre NM Kepler kan du ikke kjøre 1.7-1.8ghz på vann nei.. Har hatt 4 STK 780TI classified så jeg vet 1.5ghz har jeg hatt dem opp til Det du sier om at Maxwell skalerer over 1.25v er bare bullshit. Jeg har testa 980 KPE, 980 Classy og 980 Strix samt flere 980Ti referansekort. Kingpin selv skriver jo at alt over 1.25v er meningsløst med mindre du kjører minusgrader. Hvor mye høyere maks klokk fikk du på dine Titan X med mer enn 1.25v spenning? Det klarer vel maks 1.28v? Det jeg mener er at Kepler skalerte bra med spenning. Hadde vel 8-9 Kepler-kort selv... Referanse 780-kortet mitt klarte 1200ish mhz med 1.25v, 1387mhz med 1.325v. Alle 7 Classy (Ti/KPE) klarte over 1400mhz, opp mot 1500 mhz med 1.35-1.4v. Alt dette på vann. Til sammenligning måtte jeg øke fra 1.25 til 1.45v for å få KPE-kortet benchestabilt fra 1580 til 1622 mhz... Da skjønner vel du også at Kepler skalerte mye bedre med høyere spenning enn Maxwell gjør. Hvis du leser hva jeg skriver så skjønner du at jeg ikke mente Kepler kjørte 1700 mhz på vann. Her kan du forresten lese hva han som har DESIGNET de "feteste Kingpin ed" kortene sier: http://kingpincooling.com/forum/showpost.php?p=30273&postcount=57 Tror de fleste vet at Pascal ikke kommer på 28nm gitt... 1 Lenke til kommentar
HKS Skrevet 30. juli 2015 Del Skrevet 30. juli 2015 Test av Radeon R9 Fury i Linux: http://www.phoronix.com/scan.php?page=article&item=amd-r9-fury&num=1 Konklusjonen er som vanlig, planlegger du å bruke OpenGL eller noen som helt spill i Linux så hold deg langt unna AMD kort. 1 Lenke til kommentar
efikkan Skrevet 31. juli 2015 Del Skrevet 31. juli 2015 Test av Radeon R9 Fury i Linux: http://www.phoronix.com/scan.php?page=article&item=amd-r9-fury&num=1 Konklusjonen er som vanlig, planlegger du å bruke OpenGL eller noen som helt spill i Linux så hold deg langt unna AMD kort. Konklusjonen er kanskje verre enn vanlig, støtten for Fury er faktisk dårligere enn GCN 1.1. Resultatene er katastrofale i Middle-Earth; Shadow of Mordor. Dette er ikke bare dårlig, det er rett og slett stryk. Å bruke annet enn Nvidia-GPUer under Linux er bare en tragedie, dessverre. Lenke til kommentar
Malvado Skrevet 31. juli 2015 Del Skrevet 31. juli 2015 Å bruke annet enn Nvidia-GPUer under Linux er bare en tragedie, dessverre. Jepp, så utrolig trist dog at Linux har en så ufattelig lav markedsandel at dette har så og si ingenting å si i antall tapte salg. Og man kan ikke skryte så alt for mye om Nvidia driverne for tiden , både Linux har sett en del problematiske drivere og nå Windows 10 selvsagt med maskiner som må sendes inn for reparasjon pga driveren som Nvidia har gjort tilgjengelig for MS. Ellers så tar jeg det meste du skriver med en stor bøtte salt , har til overs å lese noe positivt fra deg når det gjelder Amd og jeg kan ikke si at jeg kjøper din versjon av DX12 / Mantle som du har skrevet ovenfor. 2 Lenke til kommentar
ExcaliBuR Skrevet 1. august 2015 Del Skrevet 1. august 2015 Nye drivere ute, WHQL er de også visstnok (15.7.1):W10x64: http://support.amd.com/en-us/download/desktop?os=Windows+10+-+64 W8.1x64: http://support.amd.com/en-us/download/desktop?os=Windows+8.1+-+64 W7x64: http://support.amd.com/en-us/download/desktop?os=Windows%207%20-%2064 Lenke til kommentar
Koven Skrevet 1. august 2015 Del Skrevet 1. august 2015 Jeg tror ikke AMD har brukt så mye tid med 300-serien! Jeg tror dem har brukt alle de få ressursene dem har tilgenglig på fury, og kommende 400-serien!AMD trenger å bruke store deler av de etterhvert mindre og mindre resursene de har til å gjøre ferdig Zen hvis de skal ha håp om å få den ut i 2016. Det er også første prioritet. DX12 utviklingen stoppet opp pga manglende kunnskap! Leste et innlegg der AMD måtte sende sine beste menn for å hjelpe dem med DX12. Koden til mantle og DX12 er veldig lik! Og hvem kopierer hvem? Du sier at mantle kopierer DX12, men jeg finner bare kilder som sier det motsatte! Jeg kan være enig med deg at DX12 ble påbegynt før, men microsoft hadde ikke kunnskapen til å fullføre DX12, uten hjelp fra utolmodige AMD.Så du mener at Microsoft ikke har kunskap til å utvikle sitt eget API???? Tydligvis ikke uten hjelp i fra AMD, Nvidia, og Intel^^ Lenke til kommentar
ExcaliBuR Skrevet 1. august 2015 Del Skrevet 1. august 2015 Jeg tror ikke AMD har brukt så mye tid med 300-serien! Jeg tror dem har brukt alle de få ressursene dem har tilgenglig på fury, og kommende 400-serien!AMD trenger å bruke store deler av de etterhvert mindre og mindre resursene de har til å gjøre ferdig Zen hvis de skal ha håp om å få den ut i 2016. Det er også første prioritet. DX12 utviklingen stoppet opp pga manglende kunnskap! Leste et innlegg der AMD måtte sende sine beste menn for å hjelpe dem med DX12. Koden til mantle og DX12 er veldig lik! Og hvem kopierer hvem? Du sier at mantle kopierer DX12, men jeg finner bare kilder som sier det motsatte! Jeg kan være enig med deg at DX12 ble påbegynt før, men microsoft hadde ikke kunnskapen til å fullføre DX12, uten hjelp fra utolmodige AMD.Så du mener at Microsoft ikke har kunskap til å utvikle sitt eget API???? Tydligvis ikke uten hjelp i fra AMD, Nvidia, og Intel^^ Dette er ikke for å "hjelpe" MS, dette er et "råd" hvor alle blir til en viss grad enige om funksjonalitet og videre utvikling av DX. Slik at det ikke blir store forskjeller mellom funksjonalitet i GPUene fra de forskjellige utviklerene. Lenke til kommentar
Koven Skrevet 2. august 2015 Del Skrevet 2. august 2015 Jeg tror ikke AMD har brukt så mye tid med 300-serien! Jeg tror dem har brukt alle de få ressursene dem har tilgenglig på fury, og kommende 400-serien!AMD trenger å bruke store deler av de etterhvert mindre og mindre resursene de har til å gjøre ferdig Zen hvis de skal ha håp om å få den ut i 2016. Det er også første prioritet. DX12 utviklingen stoppet opp pga manglende kunnskap! Leste et innlegg der AMD måtte sende sine beste menn for å hjelpe dem med DX12. Koden til mantle og DX12 er veldig lik! Og hvem kopierer hvem? Du sier at mantle kopierer DX12, men jeg finner bare kilder som sier det motsatte! Jeg kan være enig med deg at DX12 ble påbegynt før, men microsoft hadde ikke kunnskapen til å fullføre DX12, uten hjelp fra utolmodige AMD.Så du mener at Microsoft ikke har kunskap til å utvikle sitt eget API???? Tydligvis ikke uten hjelp i fra AMD, Nvidia, og Intel^^ Dette er ikke for å "hjelpe" MS, dette er et "råd" hvor alle blir til en viss grad enige om funksjonalitet og videre utvikling av DX. Slik at det ikke blir store forskjeller mellom funksjonalitet i GPUene fra de forskjellige utviklerene. Bare å google dette temaet! Svaret er veldig ensidig^^ http://www.tomshardware.com/news/amd-dx12-asynchronous-shaders-gcn,28844.html Bare et av dem! Microsoft har både fått hjelp, og råd ang DX12 AMD har vært den store pådriveren her! Lenke til kommentar
Nizzen Skrevet 2. august 2015 Del Skrevet 2. august 2015 Er fury (x) så jævlig dårlig at vi bare må diskutere DX ? Lenke til kommentar
Malvado Skrevet 2. august 2015 Del Skrevet 2. august 2015 Er fury (x) så jævlig dårlig at vi bare må diskutere DX ? Har ikke Fury X så vanskelig for meg å diskutere den uten å gå kun på tester. Har du testet ytelsen i DX12 på windows 10 , utifra hva jeg har sett så gikk ytelsen noe opp med den siste driveren som jeg lastet ned ( 280 ) trolig kan den ha enda bedre funksjonalitet på Fury. Ca 4 fps mer i Thief som er spillet jeg tester med. Lenke til kommentar
HKS Skrevet 2. august 2015 Del Skrevet 2. august 2015 Bare å google dette temaet! Svaret er veldig ensidig^^ http://www.tomshardware.com/news/amd-dx12-asynchronous-shaders-gcn,28844.html Bare et av dem! Microsoft har både fått hjelp, og råd ang DX12 AMD har vært den store pådriveren her!Fordi det står AMD på noen slides betyr ikke at AMD har vært den store pådriveren.Samtaler om nye standarder som DX12 og Vulkan foregår ofte i plenum. Man bruker ofte ordet bidragsytere. De fire stor bidragsyterene som er verdt å nevne når det gjelder DX12 er Intel, Nvidia, AMD og Qualcomm. PS! asynkrone shadere som nevnes i den saken du linker til er også støtter på alle GM2x0 brikker samt på Haswell. 1 Lenke til kommentar
Malvado Skrevet 2. august 2015 Del Skrevet 2. august 2015 Bare å google dette temaet! Svaret er veldig ensidig^^ http://www.tomshardware.com/news/amd-dx12-asynchronous-shaders-gcn,28844.html Bare et av dem! Microsoft har både fått hjelp, og råd ang DX12 AMD har vært den store pådriveren her!Fordi det står AMD på noen slides betyr ikke at AMD har vært den store pådriveren.Samtaler om nye standarder som DX12 og Vulkan foregår ofte i plenum. Man bruker ofte ordet bidragsytere. De fire stor bidragsyterene som er verdt å nevne når det gjelder DX12 er Intel, Nvidia, AMD og Qualcomm. PS! asynkrone shadere som nevnes i den saken du linker til er også støtter på alle GM2x0 brikker samt på Haswell. Nja , ingen av dere har faktisk kommet med håndfaste bevis på det dere faktisk påstår , faktisk så er det mye som tyder på at DX12 ikke ble satt ordentlig igang før det ble et faktum at både W 8 / 8.1 var en fiasko og at Xbox One salget gikk langt dårligere enn forventet. Senest i 2014 sa selv MS at de kom til å ta ting fra Mantle , at DX12 er kun en del av Windows 10 viser også at dette er en del av markedsføringen til MS nettopp for å få flest mulig kunder over til det nye oset for å nyte maks ut av DX og skjermkortet sitt. Personlig tror jeg at Microsoft hadde satset på at de ville ha en stor markedsandel med Xbox One , når det senere viser seg at det ikke blir en realitet og Windows 8.1 går såpass dårlig som det gikk så måtte de endre taktikk. Faktisk så ser det ut som de kommer til å komme svært bra ut av det om de gjør det de trolig har planlagt ( altså du kan flytte spillet ditt fra Tven til pcen...) Men ja, uansett hvor mye det insisteres på at DX 12 med funksjonalitet som lignet på Mantle var planlagt er det en enorm forskjell mellom dette og sette det i praksis , noe Amd kunne vise fram allerede i slutten av 2013 med sin beta utgave av Mantle. Lenke til kommentar
Koven Skrevet 2. august 2015 Del Skrevet 2. august 2015 (endret) Noen har nok misforstått litt her. AMD, Nvidia og Intel har hjulpet Microsoft med Direct3D 12, i likhet med versjon 11, 10, 9, osv. Direct3D er utformet av representanter fra overnevnte. Selv om det er Microsoft som har det administrative ansvaret, så er det GPU-produsentene som driver frem egenskapene til Direct3D. Kan det stemme at det er Johan Andersson fra DICE som egentlig står bak mantle, og vulkan er det Epic, Valve, og Unity? Er det mulig at spillselskapene også har en finger med i DX12? Endret 2. august 2015 av Koven Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå