Gå til innhold

RYKTE: Neste Geforce GTX Titan blir et realt kraftverk


Anbefalte innlegg

Er det ikke litt feil å si at det er på grunn av manglende konkurranse at Titan og Ti kortet ikke kommer nå? Sist så tok det vel 9 måneder mellom 980 og 980Ti, etter hva jeg hørte noen nevne for noen dager siden.

 

Vil vel heller si at det er på grunn av griskhet. Nvidia vet at 1080 og oppover er for entusiastene, og mange av dem hopper på og kjøper kort nå, så bytter de til 1080Ti når det kommer, mens mer normale folk venter til 1070 kommer, og de med litt dårligere råd venter til 1060, hvis de ikke greier å strekke seg til 1070.

 

Skal i hvertfall følge med selv for å se om det skulle dukke opp ett greit tilbud på ett 970 kort, så heller kjøre SLI. De spillene jeg pleier å spille, pleier å ha greie SLI drivere.

 

Nei det er ikke feil å si at det er pga. manglende konkurranse. Det er nettopp pga. den manglende konkurransen at de kan tillate seg å gjøre det du nevner. Med skjerpet konkurranse måtte de enten levert bedre ytelse enda raskere eller redusert prisen betydelig. Uten særlig konkurranse, kan de drøye lanseringer, og melke kundene på den måten du nevner.

 

Så det du skriver som alternativ grunn er i realiteten resultatet av manglende konkurranse. Det henger veldig godt sammen, skjønner du.

 

;-)

Lenke til kommentar
Videoannonse
Annonse

 

Denne kilden grupperer Intel sammen med Samsung og TSCM og sier de har fikset problemene (!)

 

Enhver kilde som grupperer Intel med Samsung og TSCM er åpenbart ikke veldig troverdig. Intel har en god ledelse på både Samsung og TSCM. For det første er jo Intel sin prossess ekte 14 nm FinFET. Selve finnene i FinFET er det og forskjell på. FinFET er ikke bare FinFET. Intel kom med 4.5W Broadwell-Y i starten av 2015. Samsung kom ikke før til våren, men mindre størrelse. TSCM kom ikke før høsten. Før TSCM og Samsung engang hadde LPP hadde Intel allerede ute massevis av Skylake CPUer som brukte mye strøm.

 

 

Disse kildene vet åpenbart ikke hvordan det helt fungerer. Det er en grunn til at Broadwell aldri fikk noen CPUer med høyt strømforbruk. Det er en grunn til at Broadwell-Y kom, så Broadwell-U en del måneder senere. Det er ikke det samme å lage en 5W brikke, som en 90W. For ikke å snakke om 200W. Intel hadde 100W brikker før Samsung/TSCM hadde raffinerte 5W brikker. Løste problemene samtidig? Det er så åpenbart galt, produktene viser det lett.

 

 

Og leste du det jeg skrev? Det er noe HELT annet å lage en 70 mm^2 Exynos 7420 og å lage en 500 mm^2 1080 Ti. Har de bra yields på Exynos? Sikkert. Det betyr derimot ikke at de klarer å lage 300 W 500 mm^2 chips av den grunn. Det er noe helt annet. Intel brukte nesten et år på å få det til. Og da rundt 100 mm^2 100W. Er det da urimelig å anta at TSCM muligens ikke er i stand til å lage en 500 mm^2 brikke på 300W? Ikke i det hele tatt.

 

Hvis du ellers leser det jeg skriver, så skriver jeg at jeg ikke tror Nvidia kunne lagd en 1080 Ti til en fornuftig pris, selv om de ville. Så ja, det er antagelser. Det er likevel noe som heter kvalifisert gjetting, i motsetning til å bare si at Nvidia er grådige fordi de ikke lanserer 1080 Ti, uten å ha noe grunnlag for å si det. Uten å tenke over at det kanskje ikke er mulig for dem å lage en 1080 Ti. Det er det jeg var uenig i. Du kan ikke bare komme og si Nvidia er grådige, fordi de ikke lanserer 1080 Ti.

 

Jeg vil og påpeke at kildene dine ikke er spesifikke på noen måte. Den som sier dette er en person som er ansatt for Gartner for å gjøre... kvalifiserte gjetninger. High power, store brikker er ikke nevnt. Det er ikke kildene gjelder for disse i det hele tatt. I tillegg så er kilden en gjetning i seg selv, og kan ikke brukes til å bevise noe som helst. Hans gjetning er sikkert bedre enn min, men når han ikke snakker om noe spesifikt, så kan det heller ikke tolkes slik. Faktisk snakker han om Apple og Huawei, altså mobile SoCer. Ikke et ord om GPUer.

 

 

Ellers så sier artikkelen din at kostnaden for 14 nm er høyere enn 28 nm, pga alle ekstra maskene og mønster som må påføres, som følge av at de bruker samme bølgelengde på lyset fortsatt. Også langt vanskeligere å lage chips til.

 

Måten du tolker ting på forundrer meg virkelig.

Det artikkelen sier er jo at Intel og de andre har jo løst de meste av problemene med 14nm / 16nm og leser du videre ser du jo at det er forventet at Globalfoundries kom til å starte produksjonen for fult i 2016. Alt dette stemte godt overens og det var jo soleklart at Intel har hatt en ledelse på dette feltet en god stund og at de alle har mer eller mindre løst problemene med yields.

 

Problemet ditt er at du tolker ting på en svært spesiell måte og ender opp med en haug av antagelser som du står ganske så sterkt opp for , når man da kommer med kilder som tyder på at du tar feil ender du opp med å svare som du nå gjør.

 

Du har med andre ord et stort forbedringspotensiale i måten du diskuterer på , om du velger å tenke litt over hva du skriver og ikke framstår slik du har gjort i det siste, dette er i alle fall min personlige mening og jeg håper du forstår at dette ikke er vondt ment.

 

 

Jeg leste gjennom kildene skikkelig nå, og ser er jeg misforsto basert på det du skrev og det som sto i artikkelen, da det var en del lengre og mer presist der.

 

De sammenligner ikke Intel, TSCM og Samsung og sier de ligger likt. De sier de har hatt omtrent like langt delay, men siden Intel uansett startet først, så ligger de fortsatt foran. Samtidig så sa jeg jo at den personen som gjorde den kvalifiserte gjetningen sikkert var bedre enn meg uansett, så det endrer jo ikke poenget mitt.

 

Likevel, uansett hvor mye jeg ser på det, så ser jeg ikke hvordan jeg tolker det andre feil.  Kitguru artikkelen nevner spesifikt 14 nm LPE og LPP. Altså Low Power Early og Low Power Plus. Det er nettopp det som er poenget mitt. Det er ingen av disse toppmodell-GPUene som er LPE eller LPP. Så Global Foundries kan sikkert lage CPUer for AMD basert på den informasjonen, men det sier ingenting om hvordan de ligger an for toppmodell GPUer.

 

Den andre kilden er altså over 1 år gammel. Den nevner HiSilicon og Apple som kunder. Som igjen er kunder som kjøper LPE og LPP. Det står ingenting om noe annet enn det, og det er INGEN måte de kan vite hva som skjer over et år senere. I så fall er det enten en veldig god gjetting, eller flaks. Intel selv klarte jo ikke å forutse hvordan det ville gå engang. Se og på kitguru artikkelen. GlobalFoundries hadde bedre enn forventet yields i forhold til planen. Så de som lager det klarer ikke å tippe det, hvordan skal en fra Gartner tippe det over et år i forkant.

 

Og jeg sier det igjen. En Exynos 8890/Snapdragon 820/Kirin 950 på 14/16 nm FinFET LPP er veldig forskjellig fra en 500 mm^2 300W GPU. Gode yields for den første, betyr ikke at de kan lage den andre. Eksempelet med Intel viser det klart. Du har sannsynligvis rett i at jeg kunne skrevet innlegget mitt bedre. Jeg er derimot uenig i at jeg tolker det på en svært spesiell måte. Jeg er og uenig i at du har kilder som viser at jeg tar feil. Hvorfor? Fordi kildene dine nevner ikke det jeg snakker om. Selvfølgelig, bedre yields for Exynos 8890 eller AMD CPU, vil jo bety at de er nærmere å kunne lage store GPUer som bruker mye strøm. Det betyr likevel ikke at de kan lage dem til en ok pris.

 

 

Så mitt orginale poeng står. Vi har visst enda en bruker som mener NVidia ikke kommer med 1080 Ti, fordi de ikke har konkurranse. Jeg har enda til gode å se noe bevis, eller en logisk forklaring på at TSCM kan lage 1080 Ti til en pris Nvidiak an selge det for. Og så lenge vi ikke vet grunnen til at 1080 Ti ikke er ute, så kan en ikke si noe sikkert om hvorfor det ikke er. Det blir feil å si Nvidia er griske hvis de faktisk ikke kan få 1080 Ti lagd.

Lenke til kommentar

Det er bare tull å trekke inn manglende konkurranse. I dag så må det leveres nye kort for å selge inn produkter til folk som allerede har fungerende grafikkort. Snart kommer man til et punkt hvor integrert grafikk er tilstrekkelig for >=90% av markedet. Hva skjer da?

Lenke til kommentar

Slik det er i dag kan man få GTX 970 til 3k mens for 2k så får man en GTX 960 til 2k som yter 50% da er det en dårlig investering i forhold til ytelse/pris.

 

Det finnes en fin nettside for folk som lurer på nettopp dette. Hva gir best ytelse for pengen mine?

Her har du en graf fra techpowerup. Den viser performance/dollar:

 

perfdollar_1920_1080.png

 

 

960 havner her foran 970, og gir altså mer ytelse per dollar. Likevel, forskjellen er ikke stor.

Ser du i 4K er det faktisk motsatt, men om du skal kjøre et spill i 4K på et GTX 960 anbefaler jeg å høyreklikke på spillet og trykke "Åpne i PowerPoint" :p

 

GTX 770 og GTX 760 derimot.... Der er forskjellen veldig stor. Jeg vet ikke hvordan denne generasjonen blir, men tradisjonelt har 60 serien vært klart bedre enn 70 serien i ytelse/dollar. 970 lukket nesten helt det gapet. Så om du kjøper 970 eller 960 kommer an på hvor mye ytelse du trenger (og så har du også gode kort fra AMD, som R9 390).

 

Så det vil jo være logisk å vente på 1060, spesielt siden vi ikke vet ytelsen på kortene enda. Veldig smart å vente på AMD og om du er ute etter et 1060 kort, og sannsynligvis 1070 og. De skal etter ryktene være veldig godt priset. Mulig de fortsatt bruker mer strøm enn NVidia, men forskjellen blir nok sannsynligvis liten nok til at den ikke har noe å si i praksis.

Lenke til kommentar

I dollar ja, for der koster GTX 960 en drøy tusenkrone, men her prisen nesten det dobbelte. Ergo gir GTX 970 100% mer ytelse for 50% økning i prisen. Hvis grafikkortene her i Norge hadde kostet det de hadde vært ment å koste så hadde saken stilt seg annerledes, men slik er det altså ikke.

 

Med mindre prisingen blir annerledes nå er det  fornuftige å kutte ut "energidrikk" i to uker og kjøpe GTX 1070 fremfor å sitte med skjegget i postkassa med GTX 1060 i flere år. Hvis man kjøper x60-modellene med den prisingen man har i Norge er man rett og slett korttenkt og dum i hodet.

 

Dette blir det samme som middels vs stor pakning i butikken butikken. Middels pakke smør kr 23 og stor pakke kr 29. Klart man kjøper den store og får nesten dobbel mengde for 6 kr mer. Middels pakke makrell i tomat kr 14, stor kr 15. "Jeg kjøper liten pakke for den er billigs og da sparer jeg." En dumskalle er en dumskalle er en dumskalle.

Endret av BadCat
Lenke til kommentar

Og GTX 970 er ikke tilsvarende like billig i USA?

 

Er det slik at GTX 960 er ekstra billig i USA i forhold til Norge?

 

Konverteres dollarprisen til NOK ulik om det er GTX 960 eller 970?

 

Jeg forstår ikke logikken her. Hvis du kan vise til at GTX 970 og 960 har ulikt prisforhold enn i USA så er det flott, men når du sier at GTX 960 er bra kjøp i USA fordi den er så billig der, men GTX 970 liksom ikke er tilsvarende rimeligere, så forstår jeg ikke hva du mener.

Lenke til kommentar

I USA koster GTX 970 ca dobbelt så mye som GTX 960. I Norge koster det 50% mer. Den norske prisen på 970 er nermere prisen på 970 i USA enn den norske prisen på 960 i forhold til USA.

 

GTX 960 utmerker seg ikke i USA men prisen er likeverdig. Halv ytelse og halv pris vs 970.

 

I USA er GTX 960 et like bra kjøp som 970 fordi pris og ytelse er lik. I Norge er ikke GTX 960 et like bra kjøp som 970 fordi prisen er høyere enn ytelsen i forhold til GTX 970.

Endret av BadCat
Lenke til kommentar

Jeg så på prisen til GTX 960 og 970 i USA og Norge.

 

Fant 960 til 170 USD og 970 til 285 USD.

http://www.amazon.com/EVGA-GeForce-Cooling-Graphics-02G-P4-2956-KR/dp/B013WQC9Z2/ref=sr_1_16?s=pc&ie=UTF8&qid=1464378750&sr=1-16&keywords=gtx+960&refinements=p_n_feature_four_browse-bin%3A6066314011%2Cp_n_feature_keywords_two_browse-bin%3A6147184011%2Cp_n_condition-type%3A2224371011

 

http://www.amazon.com/ZOTAC-GeForce-GTX-970-ZT-90101-10P/dp/B00NNXVPS2/ref=sr_1_13?s=pc&ie=UTF8&qid=1464378799&sr=1-13&keywords=gtx+970&refinements=p_n_feature_four_browse-bin%3A6066316011%2Cp_n_feature_keywords_five_browse-bin%3A6147187011%2Cp_n_feature_keywords_two_browse-bin%3A6147184011%2Cp_n_condition-type%3A2224371011

 

 

170 * 1.68 = 285 USD

 

Så ser på på et GTX 960 I Norge:

https://prisguiden.no/produkt/asus-geforce-gtx-960-4gb-strix-261826 (Veldig tilbudspris her, så du får 4GB versjon til prisen av en 2GB pri).

 

Så 1900 kr * 1.68 blir ca 3200 kr.

 

Et GTX 970 i Norge koster 3100 kr:

https://prisguiden.no/produkt/asus-geforce-gtx-970-strix-directcu-ii-218570

 

 

Så da blir nok pris/krone omtrent likt i Norge for GTX 960 og 970. Dobbelt så mye i USA og 50% mer i Norge stemmer ikke. Blir 68% i USA og 63% i Norge. En forskjell som sikkert varierer veldig mye basert på priser diverse steder. Spesielt i Norge.

 

Så det er ganske tydelig at prisforholdet er likt i USA og Norge.

Lenke til kommentar

GTX 960 koster $139 og oppover USA. Der prisene er høyere har man noen ganger rabattkuponger på $20-25. 970 koster $284.95 og oppover.

 

Selv på Newegg får man 960 til $149.99 etter rabattkortet.

Endret av BadCat
Lenke til kommentar

 

-snip

 

Jeg leste gjennom kildene skikkelig nå, og ser er jeg misforsto basert på det du skrev og det som sto i artikkelen, da det var en del lengre og mer presist der.

 

De sammenligner ikke Intel, TSCM og Samsung og sier de ligger likt. De sier de har hatt omtrent like langt delay, men siden Intel uansett startet først, så ligger de fortsatt foran. Samtidig så sa jeg jo at den personen som gjorde den kvalifiserte gjetningen sikkert var bedre enn meg uansett, så det endrer jo ikke poenget mitt.

 

Likevel, uansett hvor mye jeg ser på det, så ser jeg ikke hvordan jeg tolker det andre feil.  Kitguru artikkelen nevner spesifikt 14 nm LPE og LPP. Altså Low Power Early og Low Power Plus. Det er nettopp det som er poenget mitt. Det er ingen av disse toppmodell-GPUene som er LPE eller LPP. Så Global Foundries kan sikkert lage CPUer for AMD basert på den informasjonen, men det sier ingenting om hvordan de ligger an for toppmodell GPUer.

 

Den andre kilden er altså over 1 år gammel. Den nevner HiSilicon og Apple som kunder. Som igjen er kunder som kjøper LPE og LPP. Det står ingenting om noe annet enn det, og det er INGEN måte de kan vite hva som skjer over et år senere. I så fall er det enten en veldig god gjetting, eller flaks. Intel selv klarte jo ikke å forutse hvordan det ville gå engang. Se og på kitguru artikkelen. GlobalFoundries hadde bedre enn forventet yields i forhold til planen. Så de som lager det klarer ikke å tippe det, hvordan skal en fra Gartner tippe det over et år i forkant.

 

Og jeg sier det igjen. En Exynos 8890/Snapdragon 820/Kirin 950 på 14/16 nm FinFET LPP er veldig forskjellig fra en 500 mm^2 300W GPU. Gode yields for den første, betyr ikke at de kan lage den andre. Eksempelet med Intel viser det klart. Du har sannsynligvis rett i at jeg kunne skrevet innlegget mitt bedre. Jeg er derimot uenig i at jeg tolker det på en svært spesiell måte. Jeg er og uenig i at du har kilder som viser at jeg tar feil. Hvorfor? Fordi kildene dine nevner ikke det jeg snakker om. Selvfølgelig, bedre yields for Exynos 8890 eller AMD CPU, vil jo bety at de er nærmere å kunne lage store GPUer som bruker mye strøm. Det betyr likevel ikke at de kan lage dem til en ok pris.

 

 

Så mitt orginale poeng står. Vi har visst enda en bruker som mener NVidia ikke kommer med 1080 Ti, fordi de ikke har konkurranse. Jeg har enda til gode å se noe bevis, eller en logisk forklaring på at TSCM kan lage 1080 Ti til en pris Nvidiak an selge det for. Og så lenge vi ikke vet grunnen til at 1080 Ti ikke er ute, så kan en ikke si noe sikkert om hvorfor det ikke er. Det blir feil å si Nvidia er griske hvis de faktisk ikke kan få 1080 Ti lagd.

 

 

Jeg sier det igjen, det er ingenting i veien for at Nvidia kan lage en design som tar opp flere mm annet enn at man muligens får mindre Gpu'es per Wafer , allerede i 2014 hadde Intel fått på plass teknologien sin og har brukt de siste 2 årene på å finpusse denne for å øke yields ytterligere samtidig ser man nå at teknologien trolig er enten på nivå med 22nm eller bedre i forhold til yields.

 

Jeg forstår heller ikke hvorfor du sammenligner LPE / LPP direkte med 14nm / 16nm og legger til begresninger i størrelsen på disse produktene , det høres ut som du har gjort deg en mening og baserer deg på denne , da kan det være lurt å lese pressemeldinger fra feks Globalfoundries 

 

 

“FinFET technology is expected to play a critical foundational role across multiple AMD product lines, starting in 2016,” said Mark Papermaster, senior vice president and chief technology officer at AMD. “GLOBALFOUNDRIES has worked tirelessly to reach this key milestone on its 14LPP process. We look forward to GLOBALFOUNDRIES' continued progress towards full production readiness and expect to leverage the advanced 14LPP  process technology across a broad set of our CPU, APU, and GPU products.”

 

Siden det finnes ikke en eneste side per dags dato som faktisk kan påpeke at det finnes en begrensning på hvor stor en Gpu / Cpu kan bli på 14nm , på samme måte så er jo de siste produktene til både Amd og Nvidia langt større en de første på 28nm i total mm^2.

 

Nei,  nå er det på tide at du kommer med litt kilder som kan påvise påstandene du nå har kommet med.

Endret av Malvado
Lenke til kommentar

Nvidia kan lage så store design de vil. De kan sikkert lage et så stort som en 300 mm wafer tillater. Aldri sagt noe annet. Jeg snakker om fabrikk, ikke designet.

 

Du drar inn Intel som eksempel, men det blir lite relevant. Intel er allerede foran alle andre, så at Intel klarer det betyr ikke at TSCM klarer det.

 

Jeg sammenligner ikke LPP/LPE med 14nm/16nm. Jeg sier at det er det kildene snakker om. Altså 14nm LPE og LPP. LPP legger ikke begrensninger på størrelse, men strømforbruket til brikken, og indirekte sånn sett størrelse.

 

Det er fint at Global Foundries kan lage alt det de lister opp, men Samsung har faktisk laget 14 nm GPU er siden Januar i fjor. Og Global Foundries har en kopi av Samsungs prosesss. Global foundries er nok og i stand til å lage APUer og Zen CPUer. Disse er derimot normalt på en størrelse rundt 100 mm^2. De kan og alle fint havne under 35W.

 

Det er en grunn til at det heter Low Power Plus. Grunnen er så enkel at det brukes til å lage ting som ikke kreve mye strøm. Jeg vet ikkke hvor grensen går, men en GTX 1080 Ti er definitivt ikke low power.

 

Det er selvfølgelig ikke begrensninger for hvor stor en kan lage en GPU, bortsett fra waferen selvfølgelig. Det betyr ikke at du kan bare lage 1000 mm^2 GPUer. Sannsynligheten for å få en uten feil som virker vil være utrolig lav. Det er jo det som er yields essensielt.

 

 

Det å vite hva de kan og ikke er nesten umulig. Dette er hemmelig informasjon som er klassifisert innenfor selskapene. Se på kildene, deler de noen tall for hva høyere yields enn ventet betyr? Så nei, jeg har ingen kilder på hva TSCM kan og ikke kan. Det er og derfor jeg skrev det jeg gjorde som en antagelse. Jeg kan derimot skrive hvorfor antagelsen kan være rett.

 

 

 

På en wafer så er det jo alltid feil, tilfeldig fordelt utover. Dess større du lager chipen, dess større sannsynlighet for feil på den. Så selv om du har gode yields for en 70 mm^2 brikke, har du ikke gode for en 500 mm^2 brikke. Det er en grunn til at Samsung lagde Exynos 7420 så liten i mars. Ingen lager high end SoCer så små. Samsung gjorde. Hvorfor? Fordi deres 14 nm LPE prosess var veldig tidlig ute. Yieldsene var sannsynligvis ikke veldig gode. Husk at TSCM og Samsung hadde LPP omtrent samtidig. De hadde begge klar masseproduksjon på LPE for Apples A9. Så Samsung pushet 14 nm LPE tidlig med Exynos 7420, og klarte det pga størrelsen. Noe de kan gjøre kun fordi det er samme selskap.

 

Så har vi eksempelet med Intel. Strålende bevis for det jeg skriver. Tidlig i 2015, altså Januar, så kom Core-M produkter basert på Intel 14 nm FinFET. Et par måneder senere kom Broadwell-U med 15W. Mot sommeren kom CPUer som trakk enda mer strøm. Likevel, alle kom ikke. Broadwell er Intels eneste generasjon der de ikke har kommet ut med mange av de vanlige modellene. Slik som Intel Core i5-5500K. Den kom aldri. rMBP 13" har Broadwell, men 15" er på Haswell. Hvorfor er det slik? Fordi Intel hadde problemer med å lage CPUer som trakk så mye kraft. Forsinkelsen var så stor, og Skylake så nært at de hoppet over det. Dell oppgraderte ikke sin XPS 15 til å være likt som veldig vellykkede XPS 13 før Skylake, fordi Broadwell aldri hadde high powered CPUer. Så selv om de hadde gode yields, så hjalp det dem ingenting når de skulle prøve å lage i5-5500K økonomisk. Det klarte ikke Intel.

 

Så hva med Skylake da? Så nettopp på Anandtech, prisen på i7-6700K har endelig nådd MSRP fra Intel. Hvorfor denne høye prisen? Fordi Intel har ikke klart å produsere nok av dem. Mer en et halvt år etter launch. Se på prisen selv:

https://www.prisguide.no/produkt/intel-core-i7-6700k-237776?utm_campaign=export-products-category&utm_source=tek&utm_medium=cpc&utm_term=diskusjon#anchor-price-follow

Ikke før April det begynner å gå ned. Et prisfall på 800 kr.

 

Leser vi tek sin sak om FE, så bekrefter de der at Nvidia har svært få GTX 1080 kort klare. Altså, de har såvidt begynt å få klart kort. Intel brukte altså nesten over 1 og 1/2 år fra de lanserte 14 nm FinFET til de klarer å møte demand for sin Intel Core i7-6700K, som er en ubetydelig oppgradering i forhold til hva en GTX 1080 er. Så det å få til high powered chips er alt annet enn lett. Det er ganske rimelig at TSCM og Samsung har problemer på lik linje med Intel på akkurat dette feltet. Det er ikke som om det liksom er magisk forskjellig, de gjør jo essensielt det samme. Så dette gir veldig god grunn til å anta at TSCM ikke kan lage GTX 1080 Ti alene. Det å finne en kilde på at det er vanskeligere å lage chips som trekker mer strøm har jeg ikke, og det er svært vanskelig å finne. Likevel, med det jeg har forklart og tatt som eksempler, og det faktum at det finnes Low Power prosseser burde gjøre det ganske tydelig at det er tilfellet.

 

Så har vi størrelse. Tenk deg at du har en wafer med 3 feil. Du kutter ut 100 CPUer. 3 Har feil på seg, så 97% yield. Tenk at du har 10. Da har du gjerne 75% yield. Har du 1 så har du 0% yield. Dess større biter du kutter en wafer i, dess større areal vil være påvirket av feil og kan ikke brukes. Det skalerer ikke lineært. Hvis du lager 100 100mm^2 GPUer så har du langt bedre yield enn om du har 20 500 mm^2 wafere. Enkelt og greit. Yielden for 100 mm^2 kan være helt fin. Eller i tilfellet med Samsung, 74 mm^2 gikk helt fint. Det betyr ikke at du kan lage 500 mm^2 GPUer økonomisk av den grunn. Hvis du i utgangspunktet er i grenseland og nettopp klart å lage den størrelsen du har (*Host* GTX 1080 *Host*), så vil du naturligvis ikke klare å lage noe større før yieldsene er bedre.

 

Ingen av kildene dine motsier noe av det jeg skriver her. Jeg har heller ikke sett noe argumentasjon som tilsier at dette er feil eller lite sannsynlig. For meg så virker dette veldig sannsynlig, og noe du ikke kan utelukke når du spør: "Hvorfor har vi ikke 1080 Ti?" Det er god sannsynlighet for at TSCM ikke kan produsere 1080 Ti til en rimelig pris. 1080 Ti har heller ingen nedskalert feil, som gjør at den kan brukes selv ved feil, som GTX 1080 har (1070).

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...