Gå til innhold

RYKTE: Neste Geforce GTX Titan blir et realt kraftverk


Anbefalte innlegg

 

 

 

 

Er det ikke litt feil å si at det er på grunn av manglende konkurranse at Titan og Ti kortet ikke kommer nå? Sist så tok det vel 9 måneder mellom 980 og 980Ti, etter hva jeg hørte noen nevne for noen dager siden.

 

Vil vel heller si at det er på grunn av griskhet. Nvidia vet at 1080 og oppover er for entusiastene, og mange av dem hopper på og kjøper kort nå, så bytter de til 1080Ti når det kommer, mens mer normale folk venter til 1070 kommer, og de med litt dårligere råd venter til 1060, hvis de ikke greier å strekke seg til 1070.

 

Skal i hvertfall følge med selv for å se om det skulle dukke opp ett greit tilbud på ett 970 kort, så heller kjøre SLI. De spillene jeg pleier å spille, pleier å ha greie SLI drivere.

 

Hint: Både Nvidia og AMD er firma som er startet for å tjene mest mulig penger, ikke for å være snille. Slik er det jo med alle børsnoterte firma. Ikke så vanskelig å skjønne er det?

 

Ja, men Nvidia har generelt vært mer ekskluderende, kyniske og til tider også kommet med ljug.

Hint: PhysX, G-sync,  "full" DX 12 støtte på maxwell, 4 (3.5) GB minne på 970 og nå founders edition.

 

Hva er kynisk og ekskluderende med G-Sync kontra alternativene?

 

Hvorfor lansere et produkt som krever en Nvidia modul når det finnes frie og tilsvarende alternativer? - Mer penger i kassen. Du står fritt til å mene hva du vil om det, men jeg kan styre entusiasmen min.

Frie og tilsvarende? Det fantes ikke da nV lanserte GSync. Tviler på at FreeSync vil fungere noe særlig på kortet mitt. Fordel AMD at FreeSync er billigere, selvsagt, men man må fortsatt ha et AMD-skjermkort. Akkurat like "ekskluderende". Synes heller ikke noe særlig om at GSyncmodulen gjør skjermene dyrere, men nV ville ha igjen for R&D-kostnader og da ble det slik.

Lenke til kommentar
Videoannonse
Annonse

Jeg er og enig i at Nvidia utnytter og har salgsstrategier som er verre for forbrukere enn AMD.

 

I begynnelsen var PhysX et ekstrakort som folk kjøpte i tillegg. NVidia integrerte det senere. Nvidia måtte altså alternativ fortsatt å solgt PhysX expansion kort. Kan ikke forvente at de gjør det. De kjøpte og PhysX, hvorfor skulle de bare gitt teknologien til AMD?

Jeg husker fortsatt hvor kult Borderlands 2 var med PhysX. Jeg så ingen spill med kule Havoc effekter. Eller noen spill som hadde noe lignende som BL2.

 

Har Nvidia påstått full DX12 støtte?

 

Som jeg sa, 99,9% vet ikke hva det har å si i praksis engang, så hvorfor spesielt oppgi det? Ingen har gjort det før. Ingen ble lurt heller av det. Folk mente de var lurt, men det var de jo ikke. Det hadde like bra ytelse før og etter folk fant det ut. Det er sikkert mye teknisk NVidia kunne oppgitt, som de ikke oppgir. Sikkert mye mer folk kunne følt seg lurt for både hos Nvidia og AMD. Jeg ser ikke hvorfor dette med VRAMen skal være så ille.

 

 

Så jeg er enig med poenget ditt, bare ikke eksemplene :)

Ja, fullt av tråder hvor dette diskuteres ifht. Maxwell, bare å google.

 

 

 

 

 

 

Er det ikke litt feil å si at det er på grunn av manglende konkurranse at Titan og Ti kortet ikke kommer nå? Sist så tok det vel 9 måneder mellom 980 og 980Ti, etter hva jeg hørte noen nevne for noen dager siden.

 

Vil vel heller si at det er på grunn av griskhet. Nvidia vet at 1080 og oppover er for entusiastene, og mange av dem hopper på og kjøper kort nå, så bytter de til 1080Ti når det kommer, mens mer normale folk venter til 1070 kommer, og de med litt dårligere råd venter til 1060, hvis de ikke greier å strekke seg til 1070.

 

Skal i hvertfall følge med selv for å se om det skulle dukke opp ett greit tilbud på ett 970 kort, så heller kjøre SLI. De spillene jeg pleier å spille, pleier å ha greie SLI drivere.

 

Hint: Både Nvidia og AMD er firma som er startet for å tjene mest mulig penger, ikke for å være snille. Slik er det jo med alle børsnoterte firma. Ikke så vanskelig å skjønne er det?

 

Ja, men Nvidia har generelt vært mer ekskluderende, kyniske og til tider også kommet med ljug.

Hint: PhysX, G-sync,  "full" DX 12 støtte på maxwell, 4 (3.5) GB minne på 970 og nå founders edition.

 

Hva er kynisk og ekskluderende med G-Sync kontra alternativene?

 

Hvorfor lansere et produkt som krever en Nvidia modul når det finnes frie og tilsvarende alternativer? - Mer penger i kassen. Du står fritt til å mene hva du vil om det, men jeg kan styre entusiasmen min.

Frie og tilsvarende? Det fantes ikke da nV lanserte GSync. Tviler på at FreeSync vil fungere noe særlig på kortet mitt. Fordel AMD at FreeSync er billigere, selvsagt, men man må fortsatt ha et AMD-skjermkort. Akkurat like "ekskluderende". Synes heller ikke noe særlig om at GSyncmodulen gjør skjermene dyrere, men nV ville ha igjen for R&D-kostnader og da ble det slik.

 

DP 1.2a støtter adaptiv sync og hvem som helst kan hoppe på og lage FreeSync hardware (i motsetning til G-sync). At FreeSync er like ekskluderende er på alle måter bare tøys! Nvidia valgte også bevisst ikke å la skjermkortene sine støtte FreeSync.

  • Liker 1
Lenke til kommentar

 

Jeg er og enig i at Nvidia utnytter og har salgsstrategier som er verre for forbrukere enn AMD.

 

I begynnelsen var PhysX et ekstrakort som folk kjøpte i tillegg. NVidia integrerte det senere. Nvidia måtte altså alternativ fortsatt å solgt PhysX expansion kort. Kan ikke forvente at de gjør det. De kjøpte og PhysX, hvorfor skulle de bare gitt teknologien til AMD?

Jeg husker fortsatt hvor kult Borderlands 2 var med PhysX. Jeg så ingen spill med kule Havoc effekter. Eller noen spill som hadde noe lignende som BL2.

 

Har Nvidia påstått full DX12 støtte?

 

Som jeg sa, 99,9% vet ikke hva det har å si i praksis engang, så hvorfor spesielt oppgi det? Ingen har gjort det før. Ingen ble lurt heller av det. Folk mente de var lurt, men det var de jo ikke. Det hadde like bra ytelse før og etter folk fant det ut. Det er sikkert mye teknisk NVidia kunne oppgitt, som de ikke oppgir. Sikkert mye mer folk kunne følt seg lurt for både hos Nvidia og AMD. Jeg ser ikke hvorfor dette med VRAMen skal være så ille.

 

 

Så jeg er enig med poenget ditt, bare ikke eksemplene :)

Ja, fullt av tråder hvor dette diskuteres ifht. Maxwell, bare å google.

 

 

 

 

 

 

Er det ikke litt feil å si at det er på grunn av manglende konkurranse at Titan og Ti kortet ikke kommer nå? Sist så tok det vel 9 måneder mellom 980 og 980Ti, etter hva jeg hørte noen nevne for noen dager siden.

 

Vil vel heller si at det er på grunn av griskhet. Nvidia vet at 1080 og oppover er for entusiastene, og mange av dem hopper på og kjøper kort nå, så bytter de til 1080Ti når det kommer, mens mer normale folk venter til 1070 kommer, og de med litt dårligere råd venter til 1060, hvis de ikke greier å strekke seg til 1070.

 

Skal i hvertfall følge med selv for å se om det skulle dukke opp ett greit tilbud på ett 970 kort, så heller kjøre SLI. De spillene jeg pleier å spille, pleier å ha greie SLI drivere.

 

Hint: Både Nvidia og AMD er firma som er startet for å tjene mest mulig penger, ikke for å være snille. Slik er det jo med alle børsnoterte firma. Ikke så vanskelig å skjønne er det?

 

Ja, men Nvidia har generelt vært mer ekskluderende, kyniske og til tider også kommet med ljug.

Hint: PhysX, G-sync,  "full" DX 12 støtte på maxwell, 4 (3.5) GB minne på 970 og nå founders edition.

 

Hva er kynisk og ekskluderende med G-Sync kontra alternativene?

 

Hvorfor lansere et produkt som krever en Nvidia modul når det finnes frie og tilsvarende alternativer? - Mer penger i kassen. Du står fritt til å mene hva du vil om det, men jeg kan styre entusiasmen min.

Frie og tilsvarende? Det fantes ikke da nV lanserte GSync. Tviler på at FreeSync vil fungere noe særlig på kortet mitt. Fordel AMD at FreeSync er billigere, selvsagt, men man må fortsatt ha et AMD-skjermkort. Akkurat like "ekskluderende". Synes heller ikke noe særlig om at GSyncmodulen gjør skjermene dyrere, men nV ville ha igjen for R&D-kostnader og da ble det slik.

 

DP 1.2a støtter adaptiv sync og hvem som helst kan hoppe på og lage FreeSync hardware (i motsetning til G-sync). At FreeSync er like ekskluderende er på alle måter bare tøys! Nvidia valgte også bevisst ikke å la skjermkortene sine støtte FreeSync.

 

Selvsagt valgte de ikke å la skjermkortene sine støtte FreeSync, da de allerede har brukt penger på GSync. Da GSync ble lansert hadde man ikke alternativer, uavhengig av skjermkortprodusent. Så lenge jeg må kjøpe et nytt skjermkort for å benytte FreeSync ekskluderer det meg, iallefall.

Lenke til kommentar

Glemte å legge til at det ikke er noe galt med poengene dine, og at det beste hadde vært om ingenting kostet ekstra. Men når man har et marked med kun 2 skikkelige aktører vil enhver teknologi de lanserer som kun fungerer på egne produkt ekskludere den andre parten. Det er realiteten, uavhengig av bakgrunn.

Lenke til kommentar

Ser ikke ut som Tek har tenkt å fjerne artikkelen, men den burde iallefall bli redigert. Skamløs copypaste fra Sweclockers, der man har linket til "originalkilden" Chiphell uten å faktisk sjekke hva som står der. Fremragende journalistikk fra Norges største (?) teknologinettsted. Tror det er på tide å si opp Ekstra.

  • Liker 3
Lenke til kommentar

Ser ikke ut som Tek har tenkt å fjerne artikkelen, men den burde iallefall bli redigert. Skamløs copypaste fra Sweclockers, der man har linket til "originalkilden" Chiphell uten å faktisk sjekke hva som står der. Fremragende journalistikk fra Norges største (?) teknologinettsted. Tror det er på tide å si opp Ekstra.

 

Tek skrev :

 

Stemmer ryktene får det blant annet hele 3840 Cuda-kjerner.

 
Ordet rykte ble brukt der da, og da må man vel automatisk ta det med en stor klype prompepulver.
Endret av Betroz
Lenke til kommentar

 

Ser ikke ut som Tek har tenkt å fjerne artikkelen, men den burde iallefall bli redigert. Skamløs copypaste fra Sweclockers, der man har linket til "originalkilden" Chiphell uten å faktisk sjekke hva som står der. Fremragende journalistikk fra Norges største (?) teknologinettsted. Tror det er på tide å si opp Ekstra.

 

Tek skrev :

 

Stemmer ryktene får det blant annet hele 3840 Cuda-kjerner.

 
Ordet rykte ble brukt der da, og da må man vel automatisk ta det med en stor klype prompepulver.

 

Men det ER IKKE et rykte. Det er en gjettekonkurranse. Ser jo allerede folk i tråden her diskutere/vurdere kjøp/ikke kjøp av produkter på bakgrunn av artikkelen. DET er problemet.

Lenke til kommentar

 

Er det noen god grunn for at 1060-kortet skal ha så mye mer ræva minnebåndbredde, tross at minnetypen ser ut til å være lik i tabellen (med forbehold om at tabellen ikke forteller hele sannheten i artikkelen) ?

 

1060-kortet bør være under halvdelen i pris med så slaktede specs. synes nå jeg  :wee:

Vel, 1060 kommer garantert ikke med GDDR5X, så noe er galt i tabellen. Noe veldig galt med kilden og, så er nok der problemet ligger.

 

Er det ikke litt feil å si at det er på grunn av manglende konkurranse at Titan og Ti kortet ikke kommer nå? Sist så tok det vel 9 måneder mellom 980 og 980Ti, etter hva jeg hørte noen nevne for noen dager siden.

 

Vil vel heller si at det er på grunn av griskhet. Nvidia vet at 1080 og oppover er for entusiastene, og mange av dem hopper på og kjøper kort nå, så bytter de til 1080Ti når det kommer, mens mer normale folk venter til 1070 kommer, og de med litt dårligere råd venter til 1060, hvis de ikke greier å strekke seg til 1070.

 

Skal i hvertfall følge med selv for å se om det skulle dukke opp ett greit tilbud på ett 970 kort, så heller kjøre SLI. De spillene jeg pleier å spille, pleier å ha greie SLI drivere.

Jeg synes du burde sette deg litt mer inn i ting før du bare sier Nvidia er griske på dette grunnlaget.

 

Det er ikke bare som om de kan lage hvilken som helst GPU de vil, i hvilken som helst størrelse. I Mars i fjor kom Samsung med 14 nm FinFET. Dette var LowPowerEarly. Med en die size på 74 mm^2. Til høsten hadde de klar ca 100 mm^2 til Apples A9. Til våren igjen hadde de kommet med LowPowerPlus. Det samme hadde TSCM. Det tok altså nesten et år fra Samsung kom med sin første chip, til de kunne lage 100 mm^2 14 nm FinFET LPP. 

 

Se nå på tallene for Nvidia brikkene. 314 mm^2. 180W. Det er noe helt annet enn hva som kommer i mobiler. Det burde si deg noe at GTX 1070 er samme brikke som 1080. 1070 er altså 1080 brikker med feil på. Og de selger tradisjonelt mer 70 enn 80 med grei margin. Det vil si at det godt kan være at de får flere 1080 med feil på per wafer enn 1080er uten feil. Hva tror du skjer om du skal lage 400 mm^2 +++ ? Sannsynligheten for feil per brikke blir enorm. Joda, de vil klare å få ut brikker fra fabrikken, men hvem skal betale for alt som gikk til spille? Det betyr høyere priser for GPUen. God mulig Nvidia kunne lansert 1080 Ti om en uke. Da til 15K-20K + ? Hvem ville kjøpt?

 

Forrige gen var annerledes. Det var 3. generasjon på samme prosesss, så det var ingen problemer fra fabrikk. Det er det nå.

 

 

Dette er og grunnen til at kraftigere kort er dyrere. De er fysisk større. Som betyr større feilrate, og høyere kost per brikke. Større brikke betyr mer logikk. Det er og grunnen til at prisen skalerer slik oppover og at de største blir veldig dyre. Feilraten øker ikke lineært. Legg og merke til at årets 80-modell er mindre i fysisk størrelse enn fjorårets. Sannsynligvis fordi dette var det største de økonomisk kunne lage på dette tidspunktet.

 

For nye, kraftige kort må vi vente på bedre yields hos fabrikker for både GPU og HBM minne. Nvidia gjør mye for å utnytte markedet for mest mulig penger, men dette er ikke en av dem. Jeg tviler på at Nvidia kunne lansert 1080 Ti selv om de hadde hatt lyst til en fornuftig pris. Og det er ikke opp til meg å bevise at de ikke kan, det er opp til deg å bevise at de kan, om du mener de er griske pga dette. Noe du aldri vil kunne gjøre, med mindre du vil havne i fengsel for industrispionasje.

 

 

Nå føler jeg at du kommer med antagelser, har du lest det som kom fram i fjor?

 

More recently, Intel and the other foundries have solved some, if not all, of the manufacturing issues with finFETs. But the delays have pushed out the production schedules of other foundry customers in the finFET arena. Still others, namely Apple and HiSilicon, hope to ramp up finFET-based chips in 2015, but these are the exceptions to the rule. “16nm/14nm should be a high-volume node in 2016,” Wang said.

 
It’s not just the foundries that are causing the delays, though. Chipmakers have had to change their design methodologies to account for double patterning at 16nm/14nm. At 20nm, much of the coloring of different mask layers was hidden from design teams. That’s no longer true at 16nm/14nm, and it has forced them to make changes in a flow that until these new nodes was a masterful piece of clockwork.

 

Tatt fra : http://semiengineering.com/finfet-rollout-slower-than-expected/

 

Ja, det vil være en viss feilprosent i fabrikasjonen av 14 / 16nm men vi kan godt si at svært mange av problemene som man hadde med yields nå er fikset , om Nvidia har lagt inn i designet muligheter for å slå av deler av brikken dersom den er defekt så vil det jo si at man i utgangspunktet kan øke "yields" en god del, kanskje tilnærmet 100% og man kan derfor ikke si at selskapet taper stort på dette.

 

Derimot er det svært sannsynlig at de økte kostnadene til de som går over til 14 / 16nm ligger i teknologien bak og noe økte priser pr brikke , men at man kan lett ta igjen dette i volum per wafer , man må huske på at Samsung / GBF har fått langt bedre yields enn de forespilte seg : http://www.kitguru.net/components/anton-shilov/globalfoundries-14nm-yields-are-exceeding-our-plans/

 

 

Earlier this year GlobalFoundries indicated that its 14LPE yields were on par with its partner Samsung Foundry (the original developer of the 14LPE), which uses the technology to produce its Exynos 7420 system-on-chip at its fab in Austin, Texas. The SoC is used inside Samsung’s Galaxy S6, S6 Edge and S6 Edge+ smartphones. So far, Samsung has shipped tens of millions of smartphones based on the Exynos 7420 application processor, which indirectly indicates rather good yields of the 14nm process technology.

Another major client for Samsung’s 14nm FinFET LPE is Apple, whose A9 system-on-chip for the iPhone 6s and the iPhone 6s Plus will be made using the fabrication process. Analysts expect Apple to sell 80 – 90 million new iPhones by the end of the year.
Working to make 14nm yields better
GlobalFoundries and Samsung are working together in a bid to improve yields and further decrease defect density of the 14nm LPE fabrication process. While the two companies do some changes in the process flow, they tend to stay close to the original and each other in order to offer their clients complete design compatibility and performance consistency.
Endret av Malvado
Lenke til kommentar

Denne kilden grupperer Intel sammen med Samsung og TSCM og sier de har fikset problemene (!)

 

Enhver kilde som grupperer Intel med Samsung og TSCM er åpenbart ikke veldig troverdig. Intel har en god ledelse på både Samsung og TSCM. For det første er jo Intel sin prossess ekte 14 nm FinFET. Selve finnene i FinFET er det og forskjell på. FinFET er ikke bare FinFET. Intel kom med 4.5W Broadwell-Y i starten av 2015. Samsung kom ikke før til våren, men mindre størrelse. TSCM kom ikke før høsten. Før TSCM og Samsung engang hadde LPP hadde Intel allerede ute massevis av Skylake CPUer som brukte mye strøm.

 

 

Disse kildene vet åpenbart ikke hvordan det helt fungerer. Det er en grunn til at Broadwell aldri fikk noen CPUer med høyt strømforbruk. Det er en grunn til at Broadwell-Y kom, så Broadwell-U en del måneder senere. Det er ikke det samme å lage en 5W brikke, som en 90W. For ikke å snakke om 200W. Intel hadde 100W brikker før Samsung/TSCM hadde raffinerte 5W brikker. Løste problemene samtidig? Det er så åpenbart galt, produktene viser det lett.

 

 

Og leste du det jeg skrev? Det er noe HELT annet å lage en 70 mm^2 Exynos 7420 og å lage en 500 mm^2 1080 Ti. Har de bra yields på Exynos? Sikkert. Det betyr derimot ikke at de klarer å lage 300 W 500 mm^2 chips av den grunn. Det er noe helt annet. Intel brukte nesten et år på å få det til. Og da rundt 100 mm^2 100W. Er det da urimelig å anta at TSCM muligens ikke er i stand til å lage en 500 mm^2 brikke på 300W? Ikke i det hele tatt.

 

Hvis du ellers leser det jeg skriver, så skriver jeg at jeg ikke tror Nvidia kunne lagd en 1080 Ti til en fornuftig pris, selv om de ville. Så ja, det er antagelser. Det er likevel noe som heter kvalifisert gjetting, i motsetning til å bare si at Nvidia er grådige fordi de ikke lanserer 1080 Ti, uten å ha noe grunnlag for å si det. Uten å tenke over at det kanskje ikke er mulig for dem å lage en 1080 Ti. Det er det jeg var uenig i. Du kan ikke bare komme og si Nvidia er grådige, fordi de ikke lanserer 1080 Ti.

 

Jeg vil og påpeke at kildene dine ikke er spesifikke på noen måte. Den som sier dette er en person som er ansatt for Gartner for å gjøre... kvalifiserte gjetninger. High power, store brikker er ikke nevnt. Det er ikke kildene gjelder for disse i det hele tatt. I tillegg så er kilden en gjetning i seg selv, og kan ikke brukes til å bevise noe som helst. Hans gjetning er sikkert bedre enn min, men når han ikke snakker om noe spesifikt, så kan det heller ikke tolkes slik. Faktisk snakker han om Apple og Huawei, altså mobile SoCer. Ikke et ord om GPUer.

 

 

Ellers så sier artikkelen din at kostnaden for 14 nm er høyere enn 28 nm, pga alle ekstra maskene og mønster som må påføres, som følge av at de bruker samme bølgelengde på lyset fortsatt. Også langt vanskeligere å lage chips til.

Lenke til kommentar

Denne kilden grupperer Intel sammen med Samsung og TSCM og sier de har fikset problemene (!)

 

Enhver kilde som grupperer Intel med Samsung og TSCM er åpenbart ikke veldig troverdig. Intel har en god ledelse på både Samsung og TSCM. For det første er jo Intel sin prossess ekte 14 nm FinFET. Selve finnene i FinFET er det og forskjell på. FinFET er ikke bare FinFET. Intel kom med 4.5W Broadwell-Y i starten av 2015. Samsung kom ikke før til våren, men mindre størrelse. TSCM kom ikke før høsten. Før TSCM og Samsung engang hadde LPP hadde Intel allerede ute massevis av Skylake CPUer som brukte mye strøm.

 

 

Disse kildene vet åpenbart ikke hvordan det helt fungerer. Det er en grunn til at Broadwell aldri fikk noen CPUer med høyt strømforbruk. Det er en grunn til at Broadwell-Y kom, så Broadwell-U en del måneder senere. Det er ikke det samme å lage en 5W brikke, som en 90W. For ikke å snakke om 200W. Intel hadde 100W brikker før Samsung/TSCM hadde raffinerte 5W brikker. Løste problemene samtidig? Det er så åpenbart galt, produktene viser det lett.

 

 

Og leste du det jeg skrev? Det er noe HELT annet å lage en 70 mm^2 Exynos 7420 og å lage en 500 mm^2 1080 Ti. Har de bra yields på Exynos? Sikkert. Det betyr derimot ikke at de klarer å lage 300 W 500 mm^2 chips av den grunn. Det er noe helt annet. Intel brukte nesten et år på å få det til. Og da rundt 100 mm^2 100W. Er det da urimelig å anta at TSCM muligens ikke er i stand til å lage en 500 mm^2 brikke på 300W? Ikke i det hele tatt.

 

Hvis du ellers leser det jeg skriver, så skriver jeg at jeg ikke tror Nvidia kunne lagd en 1080 Ti til en fornuftig pris, selv om de ville. Så ja, det er antagelser. Det er likevel noe som heter kvalifisert gjetting, i motsetning til å bare si at Nvidia er grådige fordi de ikke lanserer 1080 Ti, uten å ha noe grunnlag for å si det. Uten å tenke over at det kanskje ikke er mulig for dem å lage en 1080 Ti. Det er det jeg var uenig i. Du kan ikke bare komme og si Nvidia er grådige, fordi de ikke lanserer 1080 Ti.

 

Jeg vil og påpeke at kildene dine ikke er spesifikke på noen måte. Den som sier dette er en person som er ansatt for Gartner for å gjøre... kvalifiserte gjetninger. High power, store brikker er ikke nevnt. Det er ikke kildene gjelder for disse i det hele tatt. I tillegg så er kilden en gjetning i seg selv, og kan ikke brukes til å bevise noe som helst. Hans gjetning er sikkert bedre enn min, men når han ikke snakker om noe spesifikt, så kan det heller ikke tolkes slik. Faktisk snakker han om Apple og Huawei, altså mobile SoCer. Ikke et ord om GPUer.

 

 

Ellers så sier artikkelen din at kostnaden for 14 nm er høyere enn 28 nm, pga alle ekstra maskene og mønster som må påføres, som følge av at de bruker samme bølgelengde på lyset fortsatt. Også langt vanskeligere å lage chips til.

 

Måten du tolker ting på forundrer meg virkelig.

Det artikkelen sier er jo at Intel og de andre har jo løst de meste av problemene med 14nm / 16nm og leser du videre ser du jo at det er forventet at Globalfoundries kom til å starte produksjonen for fult i 2016. Alt dette stemte godt overens og det var jo soleklart at Intel har hatt en ledelse på dette feltet en god stund og at de alle har mer eller mindre løst problemene med yields.

 

Problemet ditt er at du tolker ting på en svært spesiell måte og ender opp med en haug av antagelser som du står ganske så sterkt opp for , når man da kommer med kilder som tyder på at du tar feil ender du opp med å svare som du nå gjør.

 

Du har med andre ord et stort forbedringspotensiale i måten du diskuterer på , om du velger å tenke litt over hva du skriver og ikke framstår slik du har gjort i det siste, dette er i alle fall min personlige mening og jeg håper du forstår at dette ikke er vondt ment.

Lenke til kommentar

Er det ikke litt feil å si at det er på grunn av manglende konkurranse at Titan og Ti kortet ikke kommer nå? Sist så tok det vel 9 måneder mellom 980 og 980Ti, etter hva jeg hørte noen nevne for noen dager siden.

 

Vil vel heller si at det er på grunn av griskhet. Nvidia vet at 1080 og oppover er for entusiastene, og mange av dem hopper på og kjøper kort nå, så bytter de til 1080Ti når det kommer, mens mer normale folk venter til 1070 kommer, og de med litt dårligere råd venter til 1060, hvis de ikke greier å strekke seg til 1070.

 

Skal i hvertfall følge med selv for å se om det skulle dukke opp ett greit tilbud på ett 970 kort, så heller kjøre SLI. De spillene jeg pleier å spille, pleier å ha greie SLI drivere.

 

Folk med dårlig råd bør ikke vente til 1060 da det gir mindre for pengene. Isåfall er det slike dumme valg som gjør at de har dårlig råd i utgangspunktet.

Lenke til kommentar

 

Er det ikke litt feil å si at det er på grunn av manglende konkurranse at Titan og Ti kortet ikke kommer nå? Sist så tok det vel 9 måneder mellom 980 og 980Ti, etter hva jeg hørte noen nevne for noen dager siden.

 

Vil vel heller si at det er på grunn av griskhet. Nvidia vet at 1080 og oppover er for entusiastene, og mange av dem hopper på og kjøper kort nå, så bytter de til 1080Ti når det kommer, mens mer normale folk venter til 1070 kommer, og de med litt dårligere råd venter til 1060, hvis de ikke greier å strekke seg til 1070.

 

Skal i hvertfall følge med selv for å se om det skulle dukke opp ett greit tilbud på ett 970 kort, så heller kjøre SLI. De spillene jeg pleier å spille, pleier å ha greie SLI drivere.

Folk med dårlig råd bør ikke vente til 1060 da det gir mindre for pengene. Isåfall er det slike dumme valg som gjør at de har dårlig råd i utgangspunktet.

 

 

lol?

Lenke til kommentar

 

 

Er det ikke litt feil å si at det er på grunn av manglende konkurranse at Titan og Ti kortet ikke kommer nå? Sist så tok det vel 9 måneder mellom 980 og 980Ti, etter hva jeg hørte noen nevne for noen dager siden.

 

Vil vel heller si at det er på grunn av griskhet. Nvidia vet at 1080 og oppover er for entusiastene, og mange av dem hopper på og kjøper kort nå, så bytter de til 1080Ti når det kommer, mens mer normale folk venter til 1070 kommer, og de med litt dårligere råd venter til 1060, hvis de ikke greier å strekke seg til 1070.

 

Skal i hvertfall følge med selv for å se om det skulle dukke opp ett greit tilbud på ett 970 kort, så heller kjøre SLI. De spillene jeg pleier å spille, pleier å ha greie SLI drivere.

Folk med dårlig råd bør ikke vente til 1060 da det gir mindre for pengene. Isåfall er det slike dumme valg som gjør at de har dårlig råd i utgangspunktet.

 

 

lol?

 

Si situasjonen er slik at behovet/ønsket er 10* ytelse, dette får du ved å betale 5000 kr i dag.

Hvis betalingsviljen er nærmere 2500 kr i dag kommer det et svakere kort med 6* ytelse til 2500 kr.

To år senere kommer et nytt kort til 2500 kr, dette kortet yter 10*

Hvis man så velger å oppgradere ender man opp med å betale 5000 kr totalt sett for 10* ytelse, eneste forskjell fra å kjøpe det dyreste kortet til 5000 kr er at man satt to år uten skikkelig ytelse.

Lenke til kommentar

 

 

 

Er det ikke litt feil å si at det er på grunn av manglende konkurranse at Titan og Ti kortet ikke kommer nå? Sist så tok det vel 9 måneder mellom 980 og 980Ti, etter hva jeg hørte noen nevne for noen dager siden.

 

Vil vel heller si at det er på grunn av griskhet. Nvidia vet at 1080 og oppover er for entusiastene, og mange av dem hopper på og kjøper kort nå, så bytter de til 1080Ti når det kommer, mens mer normale folk venter til 1070 kommer, og de med litt dårligere råd venter til 1060, hvis de ikke greier å strekke seg til 1070.

 

Skal i hvertfall følge med selv for å se om det skulle dukke opp ett greit tilbud på ett 970 kort, så heller kjøre SLI. De spillene jeg pleier å spille, pleier å ha greie SLI drivere.

Folk med dårlig råd bør ikke vente til 1060 da det gir mindre for pengene. Isåfall er det slike dumme valg som gjør at de har dårlig råd i utgangspunktet.

 

 

lol?

 

Si situasjonen er slik at behovet/ønsket er 10* ytelse, dette får du ved å betale 5000 kr i dag.

Hvis betalingsviljen er nærmere 2500 kr i dag kommer det et svakere kort med 6* ytelse til 2500 kr.

To år senere kommer et nytt kort til 2500 kr, dette kortet yter 10*

Hvis man så velger å oppgradere ender man opp med å betale 5000 kr totalt sett for 10* ytelse, eneste forskjell fra å kjøpe det dyreste kortet til 5000 kr er at man satt to år uten skikkelig ytelse.

 

 

Nå kommer jeg til å kjøre på 1680x1050 i overskuelig fremtid, så poengløst å bruke 2000 kroner mer på ett 1070, når et 1060 allerede er overkill. Når jeg kjøper ny PC om 3-4 år, så kommer alt til å bli byttet ut, så da hadde de 2000 ekstra på 1070 vært bortkastet da det også vil bli byttet ut.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...