Gå til innhold

AMD Polaris & Vega og midlertidig (?) Navi


ExcaliBuR
Gjest

 

Anbefalte innlegg

Nå er Lisa Sue kjent for å være ganske så flink så man kan jo lure på om de egentlig ventet på et svar fra Nvidia før de bestemte seg for å komme med de kortene som er myntet på forbrukerne eller om de justerer prisene noen hakk ned. En ting er sikkert og det er at Nvidia sine kort er fortsatt relativt dyre.

 

Altså, Navi 10 beviser at AMD kunne lagd en 80 CU ~500mm2 RDNA chip god nok til å slå en 2080Ti. Den hadde kanskje trukket 400W, men det gjorde jo V64 også, og 2080Ti er strengt tatt ikke så langt unna den heller når den overklokkes litt.

 

Men det gir overhodet ingen mening for AMD å lage noe slikt dersom fremtiden "er" ray-tracing, og siden AMD fremdeles ikke selger skjermkort i noe som likner på volum nok til at den ikke hadde blitt et massivt tap for dem. 7nm EUV er nok hva både AMD og Nvidia venter på for å kunne lage mid-range skjermkort som faktisk kan brukes til ray-tracing. Og når Nvidia når denne viktige milepælen, så må AMD også kunne tilby alternativer som også har ihvertfall en form for RT.

 

En stor Navi hadde altså blitt kanskje tidenes kortest levende topp kort, fullstendig meningsløst allerede om et års tid. En 56/60/64 CU variant er selvsagt en mulighet det også, men en slik variant ville jo slått Radeon VII også. Og jeg tipper AMD har funnet ut at det er billigere for dem å ikke tjene noe særlig på R VII. Enn å skulle lansere enda et kortlivet kort som ikke kommer til å selge nevneverdig. Jeg innbiller meg også AMD har bekreftet at R VII er deres topp kort for 2019. Og når 5700XT sannsynligvis vil komme svært nærme R VII i ytelse i enkelte titler, så sier det seg litt selv at det ikke er plass til noen modell i mellom dem.

 

Jeg tipper vi ser Navi 14 til våren 2020 i form av en APU til Ryzen 4000 serien, mobile i første omgang, og 7nm EUV om den er klar. Senere på sommeren tidligst, en stor Navi 20 basert på RDNA2 med en eller annen form for RT støtte. Kanskje med HBM for å sammen med 7nm EUV klare å komme ned på et "fornuftig" strømforbuk. Samt en refresh av Navi 10, også på 7nm EUV til å ta over for 5700 serien, slik RX590 på 12nm var en refresh av 14nm RX580.

 

Men, det aller mest spennende produktet til AMD på GPU fronten fremover risikerer vi strengt tatt fort at er brikken(e) som skal nedi PS5 og XBOX 2. ;)

Lenke til kommentar
Videoannonse
Annonse

Er rimelig spent nå om det stemmer at de lager "Super" versjoner der f. Eks 2070 får dagens 2080 ytelse og 2080 blir dagens 2080 Ti, med samme prisnivå.

AMD vil nesten bli tvunget til å senke prisen drastisk hvis 5700 (XT) skal selge.

Iflg leaks'a er det ikke så enkelt. 2070 får en 2080 brikke, litt høyere clocks og blir å legge seg imellom 2070 og 2080 ytelse osv. 

 

Men siden 2060 blir litt bedre og får mer ram, mens vanilla 2060 går ned i pris, så ja da kommer det til å slite på navi sitt salg helt klart.

Lenke til kommentar

Hva skjedde? Hadde de behov for å svare på Vega 56? Det har i hvert fall ikke jeg fått med meg.

 

Vega 56 slo GTX1070, det er nok grunnen til at Nvidia slapp GTX1070Ti som slo V56 igjen. Vi snakker om latterlige marginer dog, som ~5%. Så 1070Ti var vel ut av boksen bare 10% raskere enn GTX1070, men Nvidia lot ikke GTX1070Ti overta prispunktet til GTX1070. I stedet fikk det en MSRP på 449 USD, altså ~18,5% mer enn 379 USD MSRP'en til GTX1070. 18,5% dyrere for 10% høyere ytelse altså. Den solgte likevel ganske bra, fordi "det var jo bare å overklokke den"... ;)

Lenke til kommentar

Vega 56 slo GTX1070, det er nok grunnen til at Nvidia slapp GTX1070Ti som slo V56 igjen. Vi snakker om latterlige marginer dog, som ~5%. Så 1070Ti var vel ut av boksen bare 10% raskere enn GTX1070, men Nvidia lot ikke GTX1070Ti overta prispunktet til GTX1070. I stedet fikk det en MSRP på 449 USD, altså ~18,5% mer enn 379 USD MSRP'en til GTX1070. 18,5% dyrere for 10% høyere ytelse altså. Den solgte likevel ganske bra, fordi "det var jo bare å overklokke den"... ;)

Solgte vel bra fordi vega prisen ble helt på trynet og de var vanskelig å få tak i.

Lenke til kommentar

Vega 56 slo GTX1070, det er nok grunnen til at Nvidia slapp GTX1070Ti som slo V56 igjen. Vi snakker om latterlige marginer dog, som ~5%. Så 1070Ti var vel ut av boksen bare 10% raskere enn GTX1070, men Nvidia lot ikke GTX1070Ti overta prispunktet til GTX1070. I stedet fikk det en MSRP på 449 USD, altså ~18,5% mer enn 379 USD MSRP'en til GTX1070. 18,5% dyrere for 10% høyere ytelse altså. Den solgte likevel ganske bra, fordi "det var jo bare å overklokke den"... ;)

 

Hørtes jo egentlig veldig smart ut det der da. Ikke nvidia sitt problem at folk er villig til å betale den prisen.

Også er det en gang slik at om du har det raskeste kortet der ute, så tror folk at kortet ditt automatisk er best i alle de andre prisklassene også.

Så egentlig er det mye business i å ha det raskeste kortet, selv om det er grisedyrt og ikke selger kjempemye. 

Lenke til kommentar

Jepp, det jeg sier er at jeg ikke forventer at "Super" kortene kommer til å overta prispunktene til non-Super kortene. Jeg tror de kommer til å prise seg over de allerede satte prispunktene. Nvidia kan ikke risikere å komme i en priskrig med AMD mot Navi kortene, fordi de kommer til å tape den så det synger. AMD har helt latterlig avanse på Navi på den satte prisen. Så siden Nvidia ikke kan konkurrere på pris, så melker de heller sine egne kunder videre ved å tilby marginalt raskere kort, men som også er dyrere... Vel, det tror jeg ihvertfall...

Lenke til kommentar

Jepp, det jeg sier er at jeg ikke forventer at "Super" kortene kommer til å overta prispunktene til non-Super kortene. Jeg tror de kommer til å prise seg over de allerede satte prispunktene. Nvidia kan ikke risikere å komme i en priskrig med AMD mot Navi kortene, fordi de kommer til å tape den så det synger. AMD har helt latterlig avanse på Navi på den satte prisen. Så siden Nvidia ikke kan konkurrere på pris, så melker de heller sine egne kunder videre ved å tilby marginalt raskere kort, men som også er dyrere... Vel, det tror jeg ihvertfall...

 

Ja. Det er den samme vante visa det. Litt raskere, litt dyrere. Kan selvsagt være at jeg og du tar feil, men av tidligere erfaring så ser jeg ikke for meg at nvidia kommer til å erstatte det som er. Snarere ett lite hakk opp.

 

Men som du sier, en priskrig kan de ikke vinne. De er ganske avhengig av å ha toppkortet og mindsharen som følger det å inneha den tronen.

Lenke til kommentar

August for custom kort? Hørtes litt vel tidlig ut. :p

 

Det var minst en AIB som viste "concept" skjermkort med ordentlige kjølere for Navi på Computex. Så jeg synes nesten pausen mellom lansering av referanse kortene og AIB partner modellene virker litt kunstig. Som om de vet at ingen egentlig ønsker referanse kortene, så de sikrer litt salg av dem før de åpner for de "gode" kortene.

 

Så spørs det hva prisene blir her til lands. Dette ligger jo ann til at man vil få vanilla 2080Ti ytelse til under 10.000,-.

 

Det er ikke helt slik jeg tolker det. Det er på en måte mer en tolkning av markedet. At man forventer at det vil bli mindre etterspørsel etter 2080Ti nå, så derfor skal prisene falle? Jeg er usikker. Prisene vi ser i markedet nå, er et resultat av at det har blitt fullstendig ødelagt. Folk ser ikke ut til å ha den minste ide om hvor mye disse kortene koster å produsere. Avansen på 2080Ti er så det skulle egentlig aldri kostet mer enn max max max 5000 Kr...

Lenke til kommentar

Iberegner du da R&D for disse?

 

Både ja og nei, og nei. ;)

 

Ja, fordi vi har sett kostnadene historisk bakt inn i salgsprisene vi har hatt før, og de må jo nødvendigvis også ha vært inkludert R&D, eller?

 

Men også nei, fordi det vil være umulig for meg å beregne uten adgang til Nvidias regnskaper.

 

Men, et viktigere spørsmål kanskje; skal de med i regnestykket?

 

For eksempel ser vi mye av Maxwell/Pascal arkitekturen i Turing arkitekturen. Skulle R&D kostnaden for disse blitt bakt inn i Turing prisen? Vel, selv om det selvsagt aldri hadde blitt noen Turing uten R&D for Maxwell/Pascal først, så skal selvsagt ikke den kostnaden bakes inn i Turing, den kostnaden er jo betalt for lenge lenge siden. Likedan er store deler, om ikke alt av R&D'en mellom Turing og tidligere arkitekturer allerede betalt av GPGPU kundene. Og man kan altså ikke trekke fra den samme kostnaden på 2 forskjellige ting, kun fordele den.

 

I gamle dager, før GPGPU der gaming GPU'ene ble designet først og fremst for gaming. Så ville det nok gitt mye mer mening å putte kostnaden for R&D inn i kostnaden for å designe/lage GPU'en. Men selv om vi la det til grunn, så vil man fremdeles beregne seg en nedbetalingstid av disse kostnadene. Og for GPU'er som oppdateres ofte, la oss si (forhåpentligvis) hver 18. måned i gjennomsnitt, så ville det kanskje gitt mening å budsjettere med å få dekket inn R&D innen de første 9 - 12 månedene. På den måten kunne de selge et skjermkort med 50 prosent avanse de første f.eks. 9 månedene, deretter satt ned prisen om f.eks. konkurrenten har kommet på markedet med noe bedre i mellomtiden. Det "artige" med slik talltriksing er at de kunne fremdeles hatt 50% avanse, selv om de satt ned prisen, ettersom R&D allerede var nedbetalt.

 

Men som sagt; min personlige mening er at det ikke gir mening å snakke om R&D kostnader av betydning for et gaming kort. Kortene blir i dag designet som compute kort det går an å spille på. Og vi som bruker dem til spilling får ikke en gang hele produktet de selger til forretningskundene. Vi får de dårligst binnede, med avkuttede SM/CU'er.

 

Tenk på det; I Norge i dag, for rundt 11 000 Kroner, får du et skjermkort med ikke bare en delvis defekt TU102 chip, men også, om du ikke passer på, en non-A binnet chip. Så altså de dårligste av de defekte chip'ene, med en av de dårligste kjølerne på markedet...

 

Så nei, jeg iberegner ikke R&D kostnaden inn i disse, jeg bare antar at om den er der, så har den historisk sett alltid vært det. ;)

Lenke til kommentar

For eksempel ser vi mye av Maxwell/Pascal arkitekturen i Turing arkitekturen. Skulle R&D kostnaden for disse blitt bakt inn i Turing prisen?

Det stemmer ikke helt. Turing er en veldig stor endring fra Maxwell/Pascal, den største endringen siden Nvidia kom ut med CUDA. Deler dog mye R&D med Volta... :)
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...