Blåbær Skrevet 18. januar 2012 Del Skrevet 18. januar 2012 Jeg skjønner Nvidia sine prioriteringer, de satser nå mer og mer på ARM-plattformen og laptop der mulighetene for større inntjening er mye større. Lenke til kommentar
efikkan Skrevet 18. januar 2012 Del Skrevet 18. januar 2012 nVidia var da først ute med forrige toppmodell, cirka en måned før AMD. Tegra konkurrerer i et marked med svært små marginer, og det vil ta noen år før ARM-løsninger kan konkurrere med x86 i ytelse, prototype av første 64-bits CPU er ventet tidligst i 2014. Kepler skal være i rute, så hvis ikke noe oppstår så skal profesjonelle produkter være på markedet dette halvåret, og da er det naturlig å tro at vi får konsumentversjon av samme brikke innen da (trolig noe før). Toppbrikken vil mest sannsynlig kunne fint måle seg med HD 7970, det skal ikke mye til, selv en krymping av GF110 burde klare det. Men hva som kommer først vet jeg ikke. Lenke til kommentar
N o r e n g Skrevet 19. januar 2012 Del Skrevet 19. januar 2012 nVidia var da først ute med forrige toppmodell, cirka en måned før AMD. Tegra konkurrerer i et marked med svært små marginer, og det vil ta noen år før ARM-løsninger kan konkurrere med x86 i ytelse, prototype av første 64-bits CPU er ventet tidligst i 2014. Kepler skal være i rute, så hvis ikke noe oppstår så skal profesjonelle produkter være på markedet dette halvåret, og da er det naturlig å tro at vi får konsumentversjon av samme brikke innen da (trolig noe før). Toppbrikken vil mest sannsynlig kunne fint måle seg med HD 7970, det skal ikke mye til, selv en krymping av GF110 burde klare det. Men hva som kommer først vet jeg ikke. HD 5870 kom ut oktober 2009 GTX 480 kom ut april 2010 Det er et halvt år GTX 580 var GTX 480 med et digert plaster, eller det Fermi skulle vært i utgangspunktet. Lenke til kommentar
Andrull Skrevet 19. januar 2012 Del Skrevet 19. januar 2012 HD 5870 kom ut oktober 2009 GTX 480 kom ut april 2010 Det er et halvt år GTX 580 var GTX 480 med et digert plaster, eller det Fermi skulle vært i utgangspunktet. GTX 580 var åpenbart det GTX 480 var ment som, aka et plaster, dette var tydelig ettersom GTX 480 kom med låste kjerner etc. (de hadde rett og slett ikke tid nok, og var osm du sier allerede på godt etterskudd for å ferdigstille GTX 580) Men faktum er at det matchet greit med det AMD kom med senere (6970). Og da var forspranget nesten tatt igjen, både tidsmessig og ytelsemessig. Lenke til kommentar
efikkan Skrevet 19. januar 2012 Del Skrevet 19. januar 2012 (endret) nVidia var da først ute med forrige toppmodell, cirka en måned før AMD. Tegra konkurrerer i et marked med svært små marginer, og det vil ta noen år før ARM-løsninger kan konkurrere med x86 i ytelse, prototype av første 64-bits CPU er ventet tidligst i 2014. Kepler skal være i rute, så hvis ikke noe oppstår så skal profesjonelle produkter være på markedet dette halvåret, og da er det naturlig å tro at vi får konsumentversjon av samme brikke innen da (trolig noe før). Toppbrikken vil mest sannsynlig kunne fint måle seg med HD 7970, det skal ikke mye til, selv en krymping av GF110 burde klare det. Men hva som kommer først vet jeg ikke. HD 5870 kom ut oktober 2009 GTX 480 kom ut april 2010 Det er et halvt år GTX 580 var GTX 480 med et digert plaster, eller det Fermi skulle vært i utgangspunktet. - GTX 580 kom ut før HD 6970.(for Andrull også, dette skal du vite:) - Det er en stor misforståelse at GF110 var det GF100 skulle være opprinnelig. GF110 har faktisk en del færre transistorer, er optimalisert (dobbel FP16-teksturer/klokkesykel, bedre Z-culling, nye transistorer for å redusere lekkasje). GF100 ble to steppinger forsinket og noe varmere enn planlagt(dermed lavere klokkefrekvens), men utover dette ble den som den skulle. Det var planlagt hele tiden at nVidia skulle komme med en erstattende brikke noen måneder etterpå, dette har nVidia gjort for de senere brikkene sine, det er noe alle bør ha fått med seg. Låste kjerner er helt vanlig, igjen sjekk hva som har blitt gjort tidligere. GTX 480 var klart bedre enn HD 5870 ytelsemessig. Det er merkelig hvor glemske folk er. Endret 19. januar 2012 av efikkan 1 Lenke til kommentar
N o r e n g Skrevet 19. januar 2012 Del Skrevet 19. januar 2012 (endret) - GTX 580 kom ut før HD 6970. (for Andrull også, dette skal du vite:) - Det er en stor misforståelse at GF110 var det GF100 skulle være opprinnelig. GF110 har faktisk en del færre transistorer, er optimalisert (dobbel FP16-teksturer/klokkesykel, bedre Z-culling, nye transistorer for å redusere lekkasje). GF100 ble to steppinger forsinket og noe varmere enn planlagt(dermed lavere klokkefrekvens), men utover dette ble den som den skulle. Det var planlagt hele tiden at nVidia skulle komme med en erstattende brikke noen måneder etterpå, dette har nVidia gjort for de senere brikkene sine, det er noe alle bør ha fått med seg. Låste kjerner er helt vanlig, igjen sjekk hva som har blitt gjort tidligere. GTX 480 var klart bedre enn HD 5870 ytelsemessig. Det er merkelig hvor glemske folk er. GF110 ble påbegynt januar 2010 fordi man skjønte at GF100 ikke ville klare målene de hadde satt for ytelse og klokkefrekvens, sannsynligheten for at de kuttet noe funksjonalitet/ytelse fra GF100 i tillegg til funksjonelle enheter for å få god yield anser jeg som stor. Mye av arbeidet med GF110 var å sette GF100 på slankekur. Uansett var poenget med GF110 i stor grad å fikse problematikken med GF100. Dobbel ytelse ved FP16 er bare en dobling av enheter som kan gjøre dette for hver puls. Ytelsen per MHz i spill og Compute er forsvinnende liten (~5%) mellom GTX 480 og 580. GTX 580 er et GTX 480 med plaster. HD 6970 kom ut en måned senere enn GTX 580 fordi TSMC kuttet 32nm og AMD måtte dermed kutte en del enheter fra brikka (25% er det man tipper), rapportene om at HD 6970 skulle være en "GTX 480-killer" er nok basert på en Cayman XT med konfigurasjon 2048:128:32 (likt som HD 7970 ). HD 6870 ble ikke forsinket like mye fordi TSMC økte prisestimatet for 32nm til et punkt der 40nm ville vært billigere per transistor. Forrige store brikke fra Nvidia var GT200, denne ble originalt produsert på 65nm for så å bli krympet til 55nm. G80 ble opprinnelig produsert på 90nm og ble erstattet av G92 på 65nm, siden det hoppet var så stort måtte det en redesign til for å krympe. Nvidia har uansett ikke hatt en historie der de pleier å lansere et lignende produkt på samme produksjonsprosess, de har en historie der de har krympet nåværende brikke til en mindre node og så klokket produktet opp. EDIT: GTX 480 var rett over HD 5870 i ytelse, ca 10% bedre. Problemet var bare at strømforbruket var høyere enn et GTX 295. Nvidia kan ikke lansere et slikt kort igjen Endret 19. januar 2012 av arni90 Lenke til kommentar
007CD Skrevet 19. januar 2012 Del Skrevet 19. januar 2012 Kan også legge til at Nvidia forsøkte seg på å lage en 40nm 8800 GTS kloning / rebrand, men at dette ikke funket med 40nm. Derfor døde heldigvis 8800 serien ut etter sin siste inkarnasjon med GTS 250. Ellers hadde vi hatt en lignende brikke i salg den dag idag som var ganske så lik 8800 GTS. Lenke til kommentar
Andrull Skrevet 19. januar 2012 Del Skrevet 19. januar 2012 (endret) nVidia var da først ute med forrige toppmodell, cirka en måned før AMD. Tegra konkurrerer i et marked med svært små marginer, og det vil ta noen år før ARM-løsninger kan konkurrere med x86 i ytelse, prototype av første 64-bits CPU er ventet tidligst i 2014. Kepler skal være i rute, så hvis ikke noe oppstår så skal profesjonelle produkter være på markedet dette halvåret, og da er det naturlig å tro at vi får konsumentversjon av samme brikke innen da (trolig noe før). Toppbrikken vil mest sannsynlig kunne fint måle seg med HD 7970, det skal ikke mye til, selv en krymping av GF110 burde klare det. Men hva som kommer først vet jeg ikke. HD 5870 kom ut oktober 2009 GTX 480 kom ut april 2010 Det er et halvt år GTX 580 var GTX 480 med et digert plaster, eller det Fermi skulle vært i utgangspunktet. - GTX 580 kom ut før HD 6970.(for Andrull også, dette skal du vite:) - Det er en stor misforståelse at GF110 var det GF100 skulle være opprinnelig. GF110 har faktisk en del færre transistorer, er optimalisert (dobbel FP16-teksturer/klokkesykel, bedre Z-culling, nye transistorer for å redusere lekkasje). GF100 ble to steppinger forsinket og noe varmere enn planlagt(dermed lavere klokkefrekvens), men utover dette ble den som den skulle. Det var planlagt hele tiden at nVidia skulle komme med en erstattende brikke noen måneder etterpå, dette har nVidia gjort for de senere brikkene sine, det er noe alle bør ha fått med seg. Låste kjerner er helt vanlig, igjen sjekk hva som har blitt gjort tidligere. GTX 480 var klart bedre enn HD 5870 ytelsemessig. Det er merkelig hvor glemske folk er. Jada, jeg er fullstendig klar over at GF100 har flere transistorer, men en del av dem er da som sagt låst ned. Såklart hadde de planlagt en etterfølger før GF100 ble lansert, men mente altså at ikke alt gikk som forventet. Yields'ene var sannsyneligvis ikke gode nok, tiden for knapp, kombinert med for høy varmeutvikling så ble de nødt å låse ned deler av GPUen. Dette har etter hva jeg vet aldri skjedd før på et toppkort og er IKKE vanlig. GTX 480 var bedre enn HD 5870, så sånnsett så trengte den heller ikke å ta i bruk hele kjernen. Var viktigere at ikke kjernen brant opp ville jeg tro, og heller droppe en del av optimaliseringen, da kortet hadde tatt alt for lang tid. GTX 480 var vel også etter hva jeg husker ment for å treffe ganske godt innenfor bedrift/serverområdet, og var også mye optmialisert på dette. Var vel derfor kjernen var så stor og varm, samt derfor den har så mange transistorer. Endret 19. januar 2012 av Andrull Lenke til kommentar
N o r e n g Skrevet 19. januar 2012 Del Skrevet 19. januar 2012 GeForce Kepler 104 (GK104) Packs 256-bit GDDR5 Memory Bus, 225W TDP Virker veldig rart å lansere en 225W brikke med 256 bit minnebuss når selv AMD har 384-bit nå... Lenke til kommentar
HKS Skrevet 19. januar 2012 Del Skrevet 19. januar 2012 GF110 ble påbegynt januar 2010 fordi man skjønte at GF100 ikke ville klare målene de hadde satt for ytelse og klokkefrekvens, sannsynligheten for at de kuttet noe funksjonalitet/ytelse fra GF100 i tillegg til funksjonelle enheter for å få god yield anser jeg som stor. Sommeren 2009 har jeg blitt fortalt. Kan også legge til at Nvidia forsøkte seg på å lage en 40nm 8800 GTS kloning / rebrand, men at dette ikke funket med 40nm. Derfor døde heldigvis 8800 serien ut etter sin siste inkarnasjon med GTS 250. Ellers hadde vi hatt en lignende brikke i salg den dag idag som var ganske så lik 8800 GTS. Det var da en stor mengde med fud... GTX 480 var vel også etter hva jeg husker ment for å treffe ganske godt innenfor bedrift/serverområdet, og var også mye optmialisert på dette. Var vel derfor kjernen var så stor og varm, samt derfor den har så mange transistorer. Mye mer komplisert enn som så... I bunn og grunner er kjernen mye større fordi lekkasjen mellom transistorene på 40nm er mye større en hva de originale spesifikasjonene til TSMC sa. Nvidia opererer også med mye høyere klokkefrekvens på deler av kjernen en hva for eksempel AMD gjør, dette fører igjen til at transistorene ikke kan puttes så tett, og brikken blir større. En av tingene som lagde store problemer i Fermi-arkitekturen var synkroniseringen av GPU'en sin front-end (husk at Nvidia redesignet denne fullstendig på Fermi). 1 Lenke til kommentar
**dp** Skrevet 19. januar 2012 Del Skrevet 19. januar 2012 GeForce Kepler 104 (GK104) Packs 256-bit GDDR5 Memory Bus, 225W TDP Virker veldig rart å lansere en 225W brikke med 256 bit minnebuss når selv AMD har 384-bit nå... pris pris pris pris og sa jeg pris? tipper kortet yter litt dårligere, men koster over 1000kr mindre. 1 Lenke til kommentar
HKS Skrevet 19. januar 2012 Del Skrevet 19. januar 2012 (endret) GeForce Kepler 104 (GK104) Packs 256-bit GDDR5 Memory Bus, 225W TDP Virker veldig rart å lansere en 225W brikke med 256 bit minnebuss når selv AMD har 384-bit nå... I motsetning til AMD så lanserer ikke Nvidia high-end først denne gangen. Ellers kan jeg jo rapportere om at Charlie og SemiAccurate må ha fått solstikk eller noe sånt... http://semiaccurate.com/2012/01/19/nvidia-kepler-vs-amd-gcn-has-a-clear-winner/ Endret 20. januar 2012 av [GDI]Raptor 1 Lenke til kommentar
N o r e n g Skrevet 20. januar 2012 Del Skrevet 20. januar 2012 (endret) pris pris pris pris og sa jeg pris? tipper kortet yter litt dårligere, men koster over 1000kr mindre. I så fall veldig bra billigere kort for oss. Jeg har dog mine tvil om at Nvidia klarer å lansere et kort som er raskere enn GTX 580 med 256-bit minnebuss, minnekontrollerne var noe de slet kraftig med denne generasjonen å få opp i hastighet. HD 7970 skalerer bra med ekstra minnefrekvens, godt mulig AMDs GCN-arkitektur er båndbreddesulten, men tviler fortsatt på at Nvidia klarer å skape en arkitektur som trenger 67% av båndbredden for samme ytelse. Raptor' timestamp='1327017441' post='18854189']I motsetning til AMD så lanserer ikke Nvidia high-end først. Tidligere har de alltid laget toppmodellen først for så å skalere nedover, men det kan absolutt hende de har endret strategi med Kepler. Uansett vil de lansere nye kort en gang i fremtiden, det som betyr noe da er pris, ytelse, funksjonalitet, og hvor de legger seg i forhold til AMDs kort. EDIT: Ellers kan jeg jo rapportere om at Charlie og SemiAccurate må ha fått solstikk eller noe sånt... http://semiaccurate.com/2012/01/19/nvidia-kepler-vs-amd-gcn-has-a-clear-winner/ Fikk sjokk da jeg leste det selv, han har jo alltid skrevet "AMD er best overalt" uansett hva Nvidia har stilt opp med de siste årene. Endret 20. januar 2012 av arni90 Lenke til kommentar
MistaPi Skrevet 20. januar 2012 Del Skrevet 20. januar 2012 HD 6970 kom ut en måned senere enn GTX 580 fordi TSMC kuttet 32nm og AMD måtte dermed kutte en del enheter fra brikka (25% er det man tipper), rapportene om at HD 6970 skulle være en "GTX 480-killer" er nok basert på en Cayman XT med konfigurasjon 2048:128:32 (likt som HD 7970 ). HD 6870 ble ikke forsinket like mye fordi TSMC økte prisestimatet for 32nm til et punkt der 40nm ville vært billigere per transistor. Cayman ble ikke endret fra 32nm designet. Men det var nok planlagt en større GPU enn Cayman på 32nm prosessen. Barts eksisterte ikke i 32nm planene. Nvidia har uansett ikke hatt en historie der de pleier å lansere et lignende produkt på samme produksjonsprosess, de har en historie der de har krympet nåværende brikke til en mindre node og så klokket produktet opp. AMD/ATi pleier heller ikke å lansere en "ny generasjon" på samme produksjonsprosess, men i likhet med Nvidia hadde ikke AMD så mye valg. 1 Lenke til kommentar
efikkan Skrevet 22. januar 2012 Del Skrevet 22. januar 2012 GF110 ble påbegynt januar 2010 fordi man skjønte at GF100 ikke ville klare målene de hadde satt for ytelse og klokkefrekvens, sannsynligheten for at de kuttet noe funksjonalitet/ytelse fra GF100 i tillegg til funksjonelle enheter for å få god yield anser jeg som stor. Mye av arbeidet med GF110 var å sette GF100 på slankekur. Uansett var poenget med GF110 i stor grad å fikse problematikken med GF100. Dobbel ytelse ved FP16 er bare en dobling av enheter som kan gjøre dette for hver puls. Ytelsen per MHz i spill og Compute er forsvinnende liten (~5%) mellom GTX 480 og 580. GTX 580 er et GTX 480 med plaster. HD 6970 kom ut en måned senere enn GTX 580 fordi TSMC kuttet 32nm og AMD måtte dermed kutte en del enheter fra brikka (25% er det man tipper), rapportene om at HD 6970 skulle være en "GTX 480-killer" er nok basert på en Cayman XT med konfigurasjon 2048:128:32 (likt som HD 7970 ). HD 6870 ble ikke forsinket like mye fordi TSMC økte prisestimatet for 32nm til et punkt der 40nm ville vært billigere per transistor. Forrige store brikke fra Nvidia var GT200, denne ble originalt produsert på 65nm for så å bli krympet til 55nm. G80 ble opprinnelig produsert på 90nm og ble erstattet av G92 på 65nm, siden det hoppet var så stort måtte det en redesign til for å krympe. Nvidia har uansett ikke hatt en historie der de pleier å lansere et lignende produkt på samme produksjonsprosess, de har en historie der de har krympet nåværende brikke til en mindre node og så klokket produktet opp. EDIT: GTX 480 var rett over HD 5870 i ytelse, ca 10% bedre. Problemet var bare at strømforbruket var høyere enn et GTX 295. Nvidia kan ikke lansere et slikt kort igjen Det er feil å kalle GF110 en GF100 med plaster, mange av forbedringene er nettopp forbedringer og ikke bare feilrettinger. Ytelsen per kjerne er faktisk bedre, det er ikke bare en åpnet og høyere klokket GF100. Hvorvidt den reviderte arkitekturen er krympet eller ikke, poenget er mønstret der nVidia gjør store endringer, og deretter mindre endringer så og si annenhver gang. Å si at GF110 er det GF100 skulle være er like feil som å si at GT200b var det GT200 skulle være. Reviderte Fermi var planlagt lenge før lansering, og før Fermi ble utsatt. Det vil ikke forundre meg om vi får se en revidert Kepler før Maxwell dukker opp også. GTX 480 hadde bedre ytelse enn GTX 295 også, men høyt var effektforbruket. Kan også legge til at Nvidia forsøkte seg på å lage en 40nm 8800 GTS kloning / rebrand, men at dette ikke funket med 40nm. Derfor døde heldigvis 8800 serien ut etter sin siste inkarnasjon med GTS 250. Ellers hadde vi hatt en lignende brikke i salg den dag idag som var ganske så lik 8800 GTS. Hva er galt med at en produsent beholder et velfungerende design? Men hvor påstandene dine kommer fra aner jeg ikke. Det skal sies at Fermi har hatt noe spinkelt utvalg i de lavere segmenter, så en liten brikke med god ytelse her hadde vært veldig bra. Jada, jeg er fullstendig klar over at GF100 har flere transistorer, men en del av dem er da som sagt låst ned. Såklart hadde de planlagt en etterfølger før GF100 ble lansert, men mente altså at ikke alt gikk som forventet. Yields'ene var sannsyneligvis ikke gode nok, tiden for knapp, kombinert med for høy varmeutvikling så ble de nødt å låse ned deler av GPUen. Dette har etter hva jeg vet aldri skjedd før på et toppkort og er IKKE vanlig. GTX 480 var bedre enn HD 5870, så sånnsett så trengte den heller ikke å ta i bruk hele kjernen. Var viktigere at ikke kjernen brant opp ville jeg tro, og heller droppe en del av optimaliseringen, da kortet hadde tatt alt for lang tid. GTX 480 var vel også etter hva jeg husker ment for å treffe ganske godt innenfor bedrift/serverområdet, og var også mye optmialisert på dette. Var vel derfor kjernen var så stor og varm, samt derfor den har så mange transistorer. Grunnen til at deler av GPUen var deaktivert var dårlige yields, og dermed oppnådde de langt flere brikker som oppfylte kravene. Hadde det bare vært snakk om varmeutvikling så hadde alle SM aktivert på lavere frekvens gitt mer ytelse per watt. Med andre ord, varmeutvikling var ikke årsaken til deaktivering av SM. GTX 480 var ikke er produkt for det profesjonelle markedet, det var derimot blant annet Quadro 6000 basert på samme brikke (GF100), som har all funksjonalitet aktivert, blant annet full DP-ytelse og ECC. Det du sikter til var vel heller at Fermi var et komplisert design for god GPGPU-ytelse(spesielt DP) og dermed gav dårligere ytelse per watt for "enklere bruk" som spilling, mens AMD gjør først "tilsvarende" med sin GCN-arkitektur nå. Quadro og Tesla med Kepler kommer nok til å bli en solid oppgradering fra første Fermi(GF100). ----- Det har dukket opp påståtte bilder av GK110, men disse ser veldig manipulerte ut og jeg har sett to varianter av de. Er det noen som definitivt kan se om de er falske? Lenke til kommentar
Andrull Skrevet 22. januar 2012 Del Skrevet 22. januar 2012 GTX 480 var ikke er produkt for det profesjonelle markedet, det var derimot blant annet Quadro 6000 basert på samme brikke (GF100), som har all funksjonalitet aktivert, blant annet full DP-ytelse og ECC. Det du sikter til var vel heller at Fermi var et komplisert design for god GPGPU-ytelse(spesielt DP) og dermed gav dårligere ytelse per watt for "enklere bruk" som spilling, mens AMD gjør først "tilsvarende" med sin GCN-arkitektur nå. Quadro og Tesla med Kepler kommer nok til å bli en solid oppgradering fra første Fermi(GF100). ----- Ja, du traff spikeren på hodet. Det var nettopp dette jeg tenkte på. Manglet bare litt tekniske ord for å få det forklart ja. Hukommelsen sviktet nok også littegran. Lenke til kommentar
N o r e n g Skrevet 22. januar 2012 Del Skrevet 22. januar 2012 (endret) Litt oppklaring passer inn her: Cayman ble ikke endret fra 32nm designet. Men det var nok planlagt en større GPU enn Cayman på 32nm prosessen. Barts eksisterte ikke i 32nm planene. Cayman: The Last 32nm Castaway - Anandtech The 32nm predecessor of Barts was among the earlier projects to be sent to 40nm. This was due to the fact that before 32nm was even canceled, TSMC’s pricing was going to make 32nm more expensive per transistor than 40nm... Cayman on the other hand was going to be a high-end part. Certainly being uneconomical is undesirable, but high-end parts carry high margins ... As a result the Cayman we’re seeing today is not what AMD originally envisioned as a 32nm part. AMD won’t tell us everything that they had to give up to create the 40nm Cayman (there has to be a few surprises for 28nm) but we do know a few things. First and foremost was size; GF110: Fermi Learns Some New Tricks GF110 can now do 64bit/FP16 filtering at full speed versus half-speed on GF100, and this is the first of the two major steps NVIDIA took to increase GF110’s performance over GF100’s performance on a clock-for-clock basis. ... Moving on, GF110’s second trick is brand-new to GF110, and it goes hand-in-hand with NVIDIA’s focus on tessellation: improved Z-culling ... the importance of this improvement is that it’s particularly weighted towards small triangles, which are fairly rare in traditional rendering setups but can be extremely common with heavily tessellated images. ... In the end these are probably the most aggressive changes NVIDIA could make in such a short period of time. Considering the GF110 project really only kicked off in earnest in February, NVIDIA only had around half a year to tinker with the design before it had to be taped out. Endret 22. januar 2012 av arni90 Lenke til kommentar
MistaPi Skrevet 22. januar 2012 Del Skrevet 22. januar 2012 Litt oppklaring passer inn her: Cayman ble ikke endret fra 32nm designet. Men det var nok planlagt en større GPU enn Cayman på 32nm prosessen. Barts eksisterte ikke i 32nm planene. Cayman: The Last 32nm Castaway - Anandtech The 32nm predecessor of Barts was among the earlier projects to be sent to 40nm. This was due to the fact that before 32nm was even canceled, TSMC’s pricing was going to make 32nm more expensive per transistor than 40nm... Cayman on the other hand was going to be a high-end part. Certainly being uneconomical is undesirable, but high-end parts carry high margins ... As a result the Cayman we’re seeing today is not what AMD originally envisioned as a 32nm part. AMD won’t tell us everything that they had to give up to create the 40nm Cayman (there has to be a few surprises for 28nm) but we do know a few things. First and foremost was size; Dette er hva Dave Baumann, AMD sin product manager for Northern Island, skriver: Om påvirkningene 32nm kanselleringen hadde på Cayman: If I'm not mistaken, Dave has mentioned that Cayman taped-out in May. Most design decisions were probably set in stone long before that. Long before, given that it was ported lock, stock and barrel from the 32nm design. Om Barts: Barts did not exist on the roadmap in 32nm. Barts in 40nm turned up before the 32nm cancellation. Lenke til kommentar
N o r e n g Skrevet 22. januar 2012 Del Skrevet 22. januar 2012 (endret) Dette er hva Dave Baumann, AMD sin product manager for Northern Island, skriver: Om påvirkningene 32nm kanselleringen hadde på Cayman: If I'm not mistaken, Dave has mentioned that Cayman taped-out in May. Most design decisions were probably set in stone long before that. Long before, given that it was ported lock, stock and barrel from the 32nm design. Om Barts: Barts did not exist on the roadmap in 32nm. Barts in 40nm turned up before the 32nm cancellation. ATI's HD 6000 series was originally 32nm - bit-tech Mr Skynner admitted that the HD 6000 series was originally set to use TSMC's 32nm process, but that AMD had to opt back to 40nm earlier this year after that process was unceremoniously dumped by TSMC in favour of concentrating on 28nm only Spørsmålet er da hvor langt tilbake "earlier this year" egentlig er, og hvem som løy/tok feil. Uansett kunne ikke AMD ha brukt samme tapeout for 32nm Cayman som 40nm Cayman, man må alltid gjøre visse tilpasninger for produksjonsteknikken. Kortene ble forsinket, og det er helt klart at referansedesignet ikke var godt gjennomprøvd. Endret 22. januar 2012 av arni90 Lenke til kommentar
Kakeshoma Skrevet 23. januar 2012 Del Skrevet 23. januar 2012 Kepler Rumor-roundup - Hexus Bekreftet nye drivere denne måneden... Plix ikke vent til 31. Nvidia... Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå