Gabri3L Skrevet 3. juni 2015 Del Skrevet 3. juni 2015 (endret) Drit i strømforbruket! Spesielt viss du kjører high end! Skal det inn i en liten htpc, så kjøper man ikke noe kraftig allikevel! Mest spent på kjøleløsningen til de andre "produsentene" som ASUS, MSI etc, om de kommer med en god kjøler! Nå brukte jo alle den samme kjøleren på 295x2. Og likeledes for Nvidias Titaner til nå. Så jeg har en misstanke om at Fury med vannkjøler blir lik fra alle den også. Men utvilsomt spennende. Endret 3. juni 2015 av Gabri3L Lenke til kommentar
Malvado Skrevet 3. juni 2015 Del Skrevet 3. juni 2015 Amd har patenter på et par "triks" som faktisk kan være med på å begrense varmeutviklingen pluss en av de gode gamle ingeniørene og forskerne som har stått bak Amd er nå tilbake i selskapet etter å ha jobbet for et annet selskap en periode. Husker ikke helt i farta hva han heter , men han er en av de som var rimelig irritert over at man hadde gått over til automatisering av selve designen og ikke finpusset denne manuelt. Så , jeg antar at vi kommer til å se Resonant Mesh design i en litt mer moderne utgave implementert i gpu'ene , finpusset design av arealet (spesielt viktig når man tar i bruk HBM vil jeg anta ) og trolig bedre ytelse per gpu enn det vi har fått tidligere. Jeg vil anta en forbedring på omtrent 30 til 50% maks , det betyr at vi kan se på en forbedring fra 290x i f.eks Batman Arkham Origins fra 82 fps til 106 / 123 fps , eller 104 til 120 fps i Battlefield 4. Nå er dette litt spekulasjoner i forhold til rykter om ytelsen til 390 serien , men i alle fall ifølge mine kilder så vil det bli en ganske så jevn kamp denne gangen der faktisk Amd vil trolig ta ytelsetronen i noen spill mens de taper i andre spill. Nå kommer dette fra entusiaster som gjerne gir ekstra skryt til Amd så jeg tar det med en klype salt , men mye av det de har kommet med tidligere stemmer ganske så bra. 1 Lenke til kommentar
Ourasi Skrevet 4. juni 2015 Del Skrevet 4. juni 2015 (endret) Fiji chipper som ikke er brukbare til noe kan de selge som smykker eller pynt i plexiglass, HW-erotikk er det i allefall: Endret 4. juni 2015 av Ourasi Lenke til kommentar
Gabri3L Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 (endret) Med tanke på hvor selvsikre AMD går ut i pressen nå: "A New Era of PC Gaming". Så kom jeg til å tenke på et av de tidlige ryktene angående 390X når man trodde at det var Fiji XT som kom til å hete det, mens lekkede PDF slides hintet om "opp til" 8GB minne. Og hvordan dette ikke kunne gå an med HBM gen1 minne. Og mange stiller seg jo nå tvilende til et flaggskip kort med "bare" 4GB minne. Noen rapporterer at det ikke en gang slår 980ti osv. Det virker som de fleste har gått bort fra, eller glemt et av de første ryktene; nemlig et dual GPU kort: "395x2" eller noe sånt. Dette ser ut til å ha ramlet av ryktemøllen. Tenk om AMD har klart å holde noe sånt skjult? 2xFiji XT med 2x4GB HBM minne!? Med DX12 blir jo det i nærheten av 8GB framebuffer med "Split Frame Rendering", og kombinert minnebåndbredde er oppe i 1,28TB/s!! Rent teknisk skulle det vel ikke stå noe i veien for å bygge det? (Unnskyld meg... skal bare avbestille mine 980ti..) Endret 5. juni 2015 av Gabri3L Lenke til kommentar
johanf Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 Er ikke et x2 kort Crossfire, som da igjen medfører ustabilitet og driverproblemer? :S Lenke til kommentar
Christian Thork Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 Er ikke et x2 kort Crossfire, som da igjen medfører ustabilitet og driverproblemer? :S Shots fired! Lenke til kommentar
Malvado Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 Er ikke et x2 kort Crossfire, som da igjen medfører ustabilitet og driverproblemer? :S X2 = 1 kort med 2 Gpu'er. Lenke til kommentar
Gabri3L Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 Er ikke et x2 kort Crossfire, som da igjen medfører ustabilitet og driverproblemer? :S Med skjermer som ROG swift og videre overgangen til 4K skjermer er det ikke til å unngå å måtte bruke flere GPU'er om man skal beholde "Eye candy" i nyere spill. Crossfire har nok et mer (og kanskje fortjent) frynsete rykte i forhold til SLI, men jeg tror ikke egentlig det er mye som skiller dem. På 295x2 står det en svært effektiv PLX chip som gjør at det faktisk er raskere enn to 290X i crossfire. Hvor gode driverene er har jeg ingen personlig erfaring med nå. Men jeg antar det vil være rimelig avhengig av hvilke spill du spiller... Lenke til kommentar
efikkan Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 Tenk om AMD har klart å holde noe sånt skjult? 2xFiji XT med 2x4GB HBM minne!? Med DX12 blir jo det i nærheten av 8GB framebuffer med "Split Frame Rendering", og kombinert minnebåndbredde er oppe i 1,28TB/s!! Hvis du skal få utnyttet dette som "i nærheten av 8GB" så må det være ingen overlapping i data mellom GPUene, og hvordan har du tenkt at hver av GPUene skal kunne tegne sin halvdel med kun de ressursene som er på den delen av skjermen? Saken er at du får det ikke til med mindre hver av GPUene rendrer helt forskjellige ting. Hvis den ene GPUen rendrer refleksjoner mens den andre tegner den vanlige scenen så kan nok litt spares (kanskje 5-20%?), men det skal godt gjøres å få til gode besparelser. Lenke til kommentar
kremt Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 Er ikke et x2 kort Crossfire, som da igjen medfører ustabilitet og driverproblemer? :S X2 = 1 kort med 2 Gpu'er. Og så, fortsatt er det Xfire Lenke til kommentar
Gabri3L Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 (endret) Tenk om AMD har klart å holde noe sånt skjult? 2xFiji XT med 2x4GB HBM minne!? Med DX12 blir jo det i nærheten av 8GB framebuffer med "Split Frame Rendering", og kombinert minnebåndbredde er oppe i 1,28TB/s!! Hvis du skal få utnyttet dette som "i nærheten av 8GB" så må det være ingen overlapping i data mellom GPUene, og hvordan har du tenkt at hver av GPUene skal kunne tegne sin halvdel med kun de ressursene som er på den delen av skjermen? Saken er at du får det ikke til med mindre hver av GPUene rendrer helt forskjellige ting. Hvis den ene GPUen rendrer refleksjoner mens den andre tegner den vanlige scenen så kan nok litt spares (kanskje 5-20%?), men det skal godt gjøres å få til gode besparelser. Jeg regnet med mer enn det ut fra denne artkkelen: “Gamers believe that two 4GB cards can’t possibly give you 8GB of useful memory,” says Hallock. “That may have been true for the last 25 years of PC gaming, but that’s not true with Mantle, and it’s not true with the low-overhead APIs that follow in Mantle’s footsteps.” Men hvis du skal være så vanskelig så kan jeg også det: 4,01GB vil jo også være "nærmere" 8GB. Edit: Ser nå at jeg ikke var så lur som jeg trodde med en gang. Innbilte meg da åpenbart at jeg i utgangspunktet skrev "nærmere" og ikke "i nærheten". Men vi får la det stå så enkle sjeler kan gjøre narr av meg for det om de ønsker. Endret 5. juni 2015 av Gabri3L Lenke til kommentar
Gabri3L Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 Er ikke et x2 kort Crossfire, som da igjen medfører ustabilitet og driverproblemer? :S X2 = 1 kort med 2 Gpu'er. Og så, fortsatt er det Xfire Er poenget ditt at det er mye verre enn SLI? Lenke til kommentar
Nizzen Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 Er ikke et x2 kort Crossfire, som da igjen medfører ustabilitet og driverproblemer? :S X2 = 1 kort med 2 Gpu'er. Og så, fortsatt er det Xfire Er poenget ditt at det er mye verre enn SLI? Det er det nå per dags dato. Dog det er ikkje skandale, men ikkje godt nok. Lenke til kommentar
Nizzen Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 On topic: There has a lot of talk going on around DirectX 12 and how new and current graphics cards would utilize the latest API to leverage performance in upcoming gaming titles. In an interview with Computerbase regarding DirectX 12, AMD’s Robert Hallock (Head of global technical marketing) revealed that their current GCN cards don’t feature full DirectX 12 support and are limited to Feature Level 12_0 while the rivaling Maxwell graphics cards have full Feature Level 12_1 support. http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/ Lenke til kommentar
Malvado Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 Cherry-picking Nizzen? Du kan jo også ta med andre deler av artikelen som er relevant : This could mean that AMD’s only Feature Level 12_1 compliant card would be their new Fiji GPU based cards launching this month. However, judging by Robert Hallock’s statement on how DirectX Feature Level 12_1 isn’t important for them, it could also mean that that they will also have limited support on Fiji but that is yet to be confirmed.Read more: http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/#ixzz3cDCfACn2 Amd ingeniør Hallock sine meninger om mangelen på 12_1 feature settet : According to Hallock, the absence of the feature level 12_1 is no problem in principle. So the key for games features are all included in the feature level 11_1 and 12_0. In addition, most games would already geared to the console and thus hardly rely on 12_1.Read more: http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/#ixzz3cDDB6z86 Trolig vil ikke dette ha noe å si for de aller første DX 12 kompatible tittlene , det er trolig spill som blir lansert i 2016 og 2017 som kan muligens utnytte 12_1 og få en ytelseforbedring , men hvor mye dette har å si blir ren spekulasjon per dags dato med mindre en av dere sitter på et spill som støtter 12_1 og er under utvikling... Lenke til kommentar
Nizzen Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 Cherry-picking Nizzen? Du kan jo også ta med andre deler av artikelen som er relevant : This could mean that AMD’s only Feature Level 12_1 compliant card would be their new Fiji GPU based cards launching this month. However, judging by Robert Hallock’s statement on how DirectX Feature Level 12_1 isn’t important for them, it could also mean that that they will also have limited support on Fiji but that is yet to be confirmed. Read more: http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/#ixzz3cDCfACn2 Amd ingeniør Hallock sine meninger om mangelen på 12_1 feature settet : According to Hallock, the absence of the feature level 12_1 is no problem in principle. So the key for games features are all included in the feature level 11_1 and 12_0. In addition, most games would already geared to the console and thus hardly rely on 12_1. Read more: http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/#ixzz3cDDB6z86 Trolig vil ikke dette ha noe å si for de aller første DX 12 kompatible tittlene , det er trolig spill som blir lansert i 2016 og 2017 som kan muligens utnytte 12_1 og få en ytelseforbedring , men hvor mye dette har å si blir ren spekulasjon per dags dato med mindre en av dere sitter på et spill som støtter 12_1 og er under utvikling... Måtte jo få igang en diskusjon på en frædda Lenke til kommentar
efikkan Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 Hvis du skal få utnyttet dette som "i nærheten av 8GB" så må det være ingen overlapping i data mellom GPUene, og hvordan har du tenkt at hver av GPUene skal kunne tegne sin halvdel med kun de ressursene som er på den delen av skjermen? Saken er at du får det ikke til med mindre hver av GPUene rendrer helt forskjellige ting. Hvis den ene GPUen rendrer refleksjoner mens den andre tegner den vanlige scenen så kan nok litt spares (kanskje 5-20%?), men det skal godt gjøres å få til gode besparelser. Jeg regnet med mer enn det ut fra denne artkkelen: “Gamers believe that two 4GB cards can’t possibly give you 8GB of useful memory,” says Hallock. “That may have been true for the last 25 years of PC gaming, but that’s not true with Mantle, and it’s not true with the low-overhead APIs that follow in Mantle’s footsteps.” Enten det er Mantle eller ei, lavere API-overhead kan ikke løse problemet jeg beskrev. Saken er at den største delen av GPU-minnet brukes til lagring av alle objekter som skal kunne tegnes, og hvis begge GPUer skal tegne hver sin del av skjermbildet så forstår alle at begge GPUene må ha sin kopi av ressursene. Hvis GPUene ikke skal ha duplikatdata så må de jobbe på forskjellige ting, f.eks. den ene kan prosessere partikler og lignende, men da får du neppe god SLI-/CrossFire-skalering. Lenke til kommentar
Rusher Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 Cherry-picking Nizzen? Du kan jo også ta med andre deler av artikelen som er relevant : This could mean that AMD’s only Feature Level 12_1 compliant card would be their new Fiji GPU based cards launching this month. However, judging by Robert Hallock’s statement on how DirectX Feature Level 12_1 isn’t important for them, it could also mean that that they will also have limited support on Fiji but that is yet to be confirmed. Read more: http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/#ixzz3cDCfACn2 Amd ingeniør Hallock sine meninger om mangelen på 12_1 feature settet : According to Hallock, the absence of the feature level 12_1 is no problem in principle. So the key for games features are all included in the feature level 11_1 and 12_0. In addition, most games would already geared to the console and thus hardly rely on 12_1. Read more: http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/#ixzz3cDDB6z86 Trolig vil ikke dette ha noe å si for de aller første DX 12 kompatible tittlene , det er trolig spill som blir lansert i 2016 og 2017 som kan muligens utnytte 12_1 og få en ytelseforbedring , men hvor mye dette har å si blir ren spekulasjon per dags dato med mindre en av dere sitter på et spill som støtter 12_1 og er under utvikling... Måtte jo få igang en diskusjon på en frædda Nizzen kan jo ikke slutte å lage kvalme, som resten av nvidia ungene i AMD tråden 2 Lenke til kommentar
Gabri3L Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 (endret) Enten det er Mantle eller ei, lavere API-overhead kan ikke løse problemet jeg beskrev. Saken er at den største delen av GPU-minnet brukes til lagring av alle objekter som skal kunne tegnes, og hvis begge GPUer skal tegne hver sin del av skjermbildet så forstår alle at begge GPUene må ha sin kopi av ressursene. Hvis GPUene ikke skal ha duplikatdata så må de jobbe på forskjellige ting, f.eks. den ene kan prosessere partikler og lignende, men da får du neppe god SLI-/CrossFire-skalering. Jeg har sett en del av postene dine tidligere der du forklarer veldig bra mye om hvordan skjermkort jobber. Så jeg regnet igrunnen med at det var riktig det du nettopp skrev, og at artikkelen jeg linker til nok ikke er så korrekt som vi kanskje skulle ønsket. Poenget mitt med å linke til artikkelen var i grunn bare å vise at jeg i det minste ikke bare haler tall ut av ræva. Men hva er problemet i ditt eksempel med et kort for bare partikler for eksempel? Blir det for mye data over PCIe bus'en? Selv har jeg lurt på hvordan de skal la lys som genereres oppe i venstre hjørne med retning skrått nedover f.eks. Hvordan kort nummer 2 kan jobbe videre med data som er generert av kort nummer en uten å dele store mengder data. I en annen post her refererte jeg til to 780 kort i SLI med 3GB hver som å ha 6GB under DX12. Men jeg trakk fra 50% til felles informasjon og trodde da jeg var raus. Men det ser jo ikke ut til å stemme. Edit: Ser du referer til Mantle, men i artikkelen jeg linker til sies det at det samme gjelder for DX12, jeg siterte bare den biten som var mest relevant i forhold til størrelsen på reellt tilgjengelig RAM. Endret 5. juni 2015 av Gabri3L Lenke til kommentar
kremt Skrevet 5. juni 2015 Del Skrevet 5. juni 2015 Cherry-picking Nizzen? Du kan jo også ta med andre deler av artikelen som er relevant : This could mean that AMD’s only Feature Level 12_1 compliant card would be their new Fiji GPU based cards launching this month. However, judging by Robert Hallock’s statement on how DirectX Feature Level 12_1 isn’t important for them, it could also mean that that they will also have limited support on Fiji but that is yet to be confirmed. Read more: http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/#ixzz3cDCfACn2 Amd ingeniør Hallock sine meninger om mangelen på 12_1 feature settet : According to Hallock, the absence of the feature level 12_1 is no problem in principle. So the key for games features are all included in the feature level 11_1 and 12_0. In addition, most games would already geared to the console and thus hardly rely on 12_1. Read more: http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/#ixzz3cDDB6z86 Trolig vil ikke dette ha noe å si for de aller første DX 12 kompatible tittlene , det er trolig spill som blir lansert i 2016 og 2017 som kan muligens utnytte 12_1 og få en ytelseforbedring , men hvor mye dette har å si blir ren spekulasjon per dags dato med mindre en av dere sitter på et spill som støtter 12_1 og er under utvikling... Måtte jo få igang en diskusjon på en frædda Nizzen kan jo ikke slutte å lage kvalme, som resten av nvidia ungene i AMD tråden Er så glad du atter kommer med et kvalitetsinnlegg Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå