Gå til innhold

AMD Polaris & Vega og midlertidig (?) Navi


ExcaliBuR
Gjest

 

Anbefalte innlegg

Ja .. Lurer på hvor lenge vi sitter å tukler med disse overprisede kassene våre, som må oppgraderes annen hvert år.

 

Tipper guttungene mine vil se teit på meg når jeg sier at jeg monterte sammen en PC selv for å game på. "Men pappa, hvorfor kobla du ikke bare TV'n mot internett og streama spillet fra en server?"

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

Digital Foundry testet, og målte total inputlag til å ligge rundt samme tid som på en vanlig Xbox One X (~166ms)! Det er slett ikke galt, selv om det gir noen åpenbare begrensninger da. Og avhengig av hvordan man ser på det så er det kanskje ikke bare godt nytt. Akkurat som jeg synes det er litt trist at Netflix og konkurrentene med sin dritt streame kvalitet tar livet av fysiske medier som UHD BluRay, som tillater mye høyere bildekvalitet (Tror det var Samsung som nettopp meldte at de kom til å slutte å produsere UHD BluRay spillere?). Eller rettere sagt gjør disse formatene uforholdsmessig dyre i forhold til vanlig BluRay i sin tid var. Så kan jo slike spill streame servicer også potensielt ta livet av både dedikerte skjermkort, eller til og med hele maskiner som du er inne på. Det store volumet av skjermkort solgt, som strengt tatt helt sikkert er overkill for bruken til en haug av kjøperne, har jo til nå vært med å ta en bit av regningen for entusiaster også. Om disse brukerne nå slutter å kjøpe skjermkort/maskiner fullstendig, så kan det fort bli dyrere for oss som setter pris på litt bilde kvalitet. Pluss de som uansett ikke egentlig kan bruke streame servicer på grunn av spillene de spiller ikke er egnet for det, slikt som "twitch" FPS'er, og andre spill som er avhengige av kortere inputlag...

 

Men det "artige" med disse nyhetene er å se litt i kroner og øre (eller dollar og cent da) hva denne avtalen er verdt for AMD. Om Aksjene er korrekt "priset", så sier altså aksje analytikerne at denne avtalen alene var verdt rundt 2,7 Mrd dollar, og om AMD ble så mye mer verdt av denne handelen, så snakker vi altså om fortjeneste, ikke omsetning.

 

Ved annonseringen ble det gitt litt mer tekniske spesifikasjoner. Bl.a. At serverne skal bruke Pro Vega 56, og da snakker vi nok gjerne om V340 som er dual GPU på en PCB, det vil spare plass, som er viktig i datasentre. Disse kortene ligger på ~11 000 USD per stykk! Skjønt, Google får nok en heftig rabatt, så mange som de handler, for ikke snakke om verdien for AMD i å være leverandør for både Microsoft og Google nå.

 

Så, for å sette denne handelen litt i perspektiv; om vi la til grunn at AMD tjener 100 USD per Vega 56, noe de selvsagt ikke gjør når de nå selges rundt 350USD med 3 spill på kjøpet. Men bare for å være godt "innenfor", og de skulle tjent 2,7 Mrd. USD på forbrukere, så måtte altså AMD solgt... 27 millioner Vega 56! :p

 

Men når AMD altså kan selge 1 GPU med 8GB HBM for 350 USD, men nå i stedet får kanskje 7 - 8 000 USD per 2 GPU'er og 32GB HBM, så er det plutselig ikke så veldig rart analytikerne mener AMD kommer til å tjene masse penger på denne avtalen! :p

 

Det var fristende å tro at AMD også ville vært foretrukken CPU leverandør for disse serverne, men Dr. Lisa Su gikk ut på Twitter og annonserte avtalen, der hun sa at AMD var stolte over å være GPU partner... Et litt merkelig ordvalg om de også leverer CPU, så det tviler jeg på de gjør da...

 

Så uansett, om AMD skal være med i fremtidens kamp om High end forbruker GPU'er, så må de ha penger, og nå fikk de nettopp en butt load til med akkurat det! Vi får bare håpe de fremdeles er interessert i det markedet. Ellers er fremtidens topp kort Nvidia's 2 000 USD skjermkort... :p

Endret av Gabri3L
Lenke til kommentar

Jeg tipper cloudgaming eller hva man skal kalle det vil bli populært blant de som spiller litt til moderat, mens det fremdeles vil være mer lønnsomt å kjøpe bra hardware og spille på eget utstyr for de som spiller mye. Input-lag og behov for svært raske linjer er og problemstillinger. Om cloud-gaming innebærer at man må betale en god del mer i året for å få ei bedre internettlinje pluss betale høye abonnementspriser for tjenesten vil nok det å kjøpe utstyr selv fremdeles være den beste dealen.

Lenke til kommentar

Jeg tror interessen for å satse på high-end maskinvare til enkeltindivider er i ferd med å forsvinne. Det foregår nok heftige diskusjoner på fremtidig satningsområde, og jeg vil tippe det lener mot serverbaserte tjenester.

 

Enkelte vil kanskje huske hvordan AMD skrev på roadmap angående fremtidige "Navi", et par stikkord som; "Scalability", og "Next Gen Memory"? I det lengste var det de av oss som trodde at "Scalability" betydde at Navi skjermkortene ville bli skalerbare ved at man "bygde" flere modeller vha. GPU "chiplets". På samme måte som Zen chiplet'ene brukes til å "bygge" flere modeller av Ryzen, Threadripper, og Epyc... Men dette ble til slutt dementert av AMD selv. Så hva betyr "Scalability" da? ;)

 

Nye rykter har hevdet at Navi arkitekturen rett og slett bare er til PS5 i første omgang. Og da ved forlengelse åpenbart også til neste Xbox. Men hva er det eventuelt som er så skalerbart med det? Det forklarer ihvertfall ingenting. Om ikke nettopp at de eventuelt på sikt planlegger å bruke Navi baserte GPU'er i datasentre for game streaming? Hva vil vel være bedre til å streame Playstation og Xbox spill, enn GPU'er som faktisk er basert på samme arkitektur som GPU'en i konsollene de skal streame spillene for? Det blir ihvertfall ikke mer kompatibelt, og potensielt optimalisert enn det.

 

Og om vi snakker om et datasenter som begynner med f.eks. 100 000 Navi GPU'er. Som så etter hvert som flere kunder strømmer til, vokser til 200 000 GPU'er, og senere kanskje 500 000 GPU'er... Kan vi kalle det for skalering kanskje? ;)

 

Det spennende med dette, er at dette i så fall kan være et GPU design som for en gangs skyld ikke er designet for proffbruk først, og gaming som en bi-effekt etter. Eller ihvertfall vesentlig flyttet mot spilling først og fremst. Folk er kanskje ikke klar over det, men til og med bittelille RX550 har flere Radeon Pro "brødre" som fikk alle de beste GPU'ene fra samlebåndet. Og at i enkelte av arbeids oppgavene til proffkortet som tilsvarer RX550, så vil den til og med slå en GTX1070. Det er masse "søppel" inni alle dagens "spill" GPU'er som ikke har en dritt med spilling å gjøre. Men som er der på grunn av arbeids typene GPU'en først og fremst ble designet for, og som åpenbart ikke er "søppel" når de blir brukt til sin hovedoppgave.

 

Når vi nå ser Google inngår en avtale som i første omgang er verdt 2,7 Mrd. for AMD... For skjermkort til å spille på... Og om vi forestiller oss at Sony og Microsoft ønsker å bli minst like store. Vel, plutselig ble all "søpla" i proff kortene fullstendig ubrukelig til det skjermkortene kommer til å bli brukt til, plutselig tar faktisk all den "søpla" opp verdifull plass i chip'en, som kunne blitt bedre brukt til spill orienterte komponenter., eller bare krymping av die size. Om Navi er først og fremst designet for spilling... Og de har byttet ut mesteparten av "søpla" med spill komponenter... Sweet Jesus for et potensial de kan ha! :p

Endret av Gabri3L
Lenke til kommentar
  • 2 uker senere...
  • 2 uker senere...
  • 2 uker senere...

Sånn, så er vi ihvertfall i en GPU tråd. :)

Jeg svarte Nizzen på en post der han mente det var dårlig av AMD å ikke klare bedre på 7nm enn Nvidia klarer på 12nm. Mens jeg svarte på den posten så endret han posten sin til å handle om strøm effektivitet. Det hadde imidlertid ingen påvirkning på mitt argument, så jeg brydde meg ikke med det. Argumentet er ganske enkelt at Radeon VII er et nedkuttet MI50 som aldri var tiltenkt gaming oppgaver. Da går det ikke an å argumentere med at AMDs 7nm gaming skjermkort ikke kan konkurrere mot Nvidias 12nm gaming skjermkort, ganske enkelt fordi AMD ikke har noe 7nm gaming skjermkort. De har et 7nm proff kort, som man kan game på, som de selger drit billig i forhold til hvor kraftig det er. Med det er ikke, har aldri vært, og kommer aldri til å bli et "gaming" skjermkort.

 

Men det hindrer ikke R7 i likevel å skinne i enkelte spill titler. I dette tilfellet tok jeg frem Dirt 4, der det matcher selv 2080Ti på average, og slår det på 1% low. Gitt at R7 og 2080Ti trekker like mye strøm i denne tittelen har vi da et spill der man kan hevde at R7 til og med trekker det lengste strået i å være strøm effektivt. Jeg påpekte altså feilen med TPU's måte å regne ut effektiviteten på, og man skjønner jo fort at det kan bli veldig galt, ellers skulle man ikke hatt noe imot at man brukte verdiene fra Dirt 4 i stedet. Som riktignok vil gi RTX2080 en liten fordel over R7 fremdeles. Men uten at det har noe å si for mitt argument om at måten TPU vurderer strøm effektiviteten på er fullstendig feil.
 

Både AMDs og Nvidias boost prøver å maksimere ytelsen innenfor en gitt effekt og temperatur.
Med mindre Metro Last Light er flaskehalser av CPU vil alle kortene ligge på sin effektgrense og man vil få en brukbar verdi for å sammenligne effekt mellom kort.

Guru3D har en mindre presis metode, men selv det burde ikke bomme med stort mer enn 5%


Konklusjon: AMD bruker betraktelig mer effekt for tilsvarende spillytelse enn NVIDIA, selv med en betraktelig bedre prosess.

 
Dette er teorien, praksisen er ikke helt enig med deg. Men jeg må hoppe litt tilbake i tid siden det er det eneste jeg har eksempel på.

 

Som du sikkert "vet" så var GTX970 et vesentlig mer strømgjerrig skjermkort enn R9 390 som det endte opp med å kjempe mot ytelses messig. TPU, og de fleste andre tech sider fant at strømforbruket lå sånn cirka heromkring. Med R9 390 altså trekkende nesten 70W mer. ~15 - 20 av de Watt'ene kan vi kanskje tillegge de 4GB ekstra VRAM på 390? Litt urettferdig å klandre 390'en for strøm som den ikke selv bruker? ;)

 

Men uansett, hva om dette er en tittel der AMD kortene av en eller annen merkelig grunn trekker mye strøm, men likevel yter dårlig? Vil ikke R9 390 kortet da potensielt bli urettferdig straffet i alle andre titler når TPU ikke tester strømforbruket i mer enn en tittel?

 

Vel, det er hva jeg tror har skjedd, for når Steven Walton tok et tilbakeblikk på GTX970 vs R9 390 ~2 år senere, så trakk plutselig ikke R9 390 mer enn 37W mer! Og igjen, husk på at 390 har 4GB VRAM ekstra som også står for en del av de 37W'ene.

 

Men, ikke bare trakk kortet nå kun 37W mer, det var også nesten 7% raskere. Mot TPU's 3% seier til GTX970.

 

Nå, Steven har ingen måte å måle kun skjermkort forbruket på. Men om vi går ut fra at GTX970'en hans trekker 163W slik som TPU's, så skulle det bety at 390'en trakk ~200W. Altså 22,7% mer enn GTX970. TPU derimot har R9 390 på 231W, altså nesten 42% mer strøm enn GTX970 i deres test. Vi snakker altså om en forskjell på nesten 20%, ikke 5% som du mener er maks feilmargin.

 

Så, hvem har målt feil? Eller hvem har gjort det riktigst? Jeg tviler nemlig ikke på at TPU's tall er korrekt. Det er helt sikkert helt korrekt for akkurat det spillet. Men hva om man spiller noe annet da? Slik som Steven Walton gjorde? Nå finner jeg det ikke i farten, men jeg mener han faktisk benyttet et gjennomsnitt fra 4 forskjellige spill. Mulig han sier noe om det i videoen, om han lagde det for HWUB, eller om han presiserte det i en av kommentarene. Men om han gjorde samme feil som TPU (jeg vet han gjør det i dag), og målte i bare ett spill. Vil ikke det være vel så riktig/feil som TPU?

 

Uansett; feilmarginen din var... Feil. ;)

  • Liker 1
Lenke til kommentar

Gabri3l: Ekstra minne på skjermkort medfører omtrent nada på ekstra strømforbruk. Se forskjellen på RX 580 og 1060, da er i tillegg minnehastighet på 580 lavere på 4gb og deler av chippen deaktivert på 1060 3gb, allikevel er strømforbruket svært likt.

 

Litt av problemet til AMD ligger i at de reklamerer for spillytelse på nivå med 2080 og stort sett ikke leverer.

  • Liker 1
Lenke til kommentar

Nå halte jeg ikke akkurat 15 - 20W ut av ræva heller, det var et tall som ble brukt av en eller annen publikasjon den gang dette ble diskutert, altså for 4 år siden (og 4 år siden er mer enn nok til å være sterkt medvirkende til at jeg ikke husker hvor jeg har tallet fra).

 

At strømforbruket er ganske likt på 1060 3GB har igjen nok heller med et totalt power "budget" å gjøre. Altså, om kortet får lov til å bruke 130W, så gjør det det, om det blir i form av økt boost frekvens på GPU, eller om det går til 1060 6GB's 3 ekstra GB med VRAM er ikke noe vi ser mye til, men det er det som skjer. Det vil ellers riktignok være vanskelig å måle, da silisiums kvaliteten vil variere, slik at en chip bruker mer strøm på å klare samme frekvenser som en annen.

 

Ellers viser Dirt 4 at AMD leverer i bøtter og spann. Flere Vulkan og DX12 titler viser det samme. Problemet er at veldig mange utviklere bruker Unreal engine, at Sweeney er en Nvidia fanboy, og at folk ikke vet at det er det som er problemet... ;)

Lenke til kommentar

Jeg svarte Nizzen på en post der han mente det var dårlig av AMD å ikke klare bedre på 7nm enn Nvidia klarer på 12nm. Mens jeg svarte på den posten så endret han posten sin til å handle om strøm effektivitet. Det hadde imidlertid ingen påvirkning på mitt argument, så jeg brydde meg ikke med det. Argumentet er ganske enkelt at Radeon VII er et nedkuttet MI50 som aldri var tiltenkt gaming oppgaver. Da går det ikke an å argumentere med at AMDs 7nm gaming skjermkort ikke kan konkurrere mot Nvidias 12nm gaming skjermkort, ganske enkelt fordi AMD ikke har noe 7nm gaming skjermkort. De har et 7nm proff kort, som man kan game på, som de selger drit billig i forhold til hvor kraftig det er. Med det er ikke, har aldri vært, og kommer aldri til å bli et "gaming" skjermkort.

AMD kaller det et gaming-skjermkort.

https://www.amd.com/en/products/graphics/amd-radeon-vii

  • Liker 5
Lenke til kommentar

Dette er teorien, praksisen er ikke helt enig med deg. Men jeg må hoppe litt tilbake i tid siden det er det eneste jeg har eksempel på.

 

Som du sikkert "vet" så var GTX970 et vesentlig mer strømgjerrig skjermkort enn R9 390 som det endte opp med å kjempe mot ytelses messig. TPU, og de fleste andre tech sider fant at strømforbruket lå sånn cirka heromkring. Med R9 390 altså trekkende nesten 70W mer. ~15 - 20 av de Watt'ene kan vi kanskje tillegge de 4GB ekstra VRAM på 390? Litt urettferdig å klandre 390'en for strøm som den ikke selv bruker? ;)

 

Men uansett, hva om dette er en tittel der AMD kortene av en eller annen merkelig grunn trekker mye strøm, men likevel yter dårlig? Vil ikke R9 390 kortet da potensielt bli urettferdig straffet i alle andre titler når TPU ikke tester strømforbruket i mer enn en tittel?

 

Vel, det er hva jeg tror har skjedd, for når Steven Walton tok et tilbakeblikk på GTX970 vs R9 390 ~2 år senere, så trakk plutselig ikke R9 390 mer enn 37W mer! Og igjen, husk på at 390 har 4GB VRAM ekstra som også står for en del av de 37W'ene.

 

Men, ikke bare trakk kortet nå kun 37W mer, det var også nesten 7% raskere. Mot TPU's 3% seier til GTX970.

 

Nå, Steven har ingen måte å måle kun skjermkort forbruket på. Men om vi går ut fra at GTX970'en hans trekker 163W slik som TPU's, så skulle det bety at 390'en trakk ~200W. Altså 22,7% mer enn GTX970. TPU derimot har R9 390 på 231W, altså nesten 42% mer strøm enn GTX970 i deres test. Vi snakker altså om en forskjell på nesten 20%, ikke 5% som du mener er maks feilmargin.

 

Så, hvem har målt feil? Eller hvem har gjort det riktigst? Jeg tviler nemlig ikke på at TPU's tall er korrekt. Det er helt sikkert helt korrekt for akkurat det spillet. Men hva om man spiller noe annet da? Slik som Steven Walton gjorde? Nå finner jeg det ikke i farten, men jeg mener han faktisk benyttet et gjennomsnitt fra 4 forskjellige spill. Mulig han sier noe om det i videoen, om han lagde det for HWUB, eller om han presiserte det i en av kommentarene. Men om han gjorde samme feil som TPU (jeg vet han gjør det i dag), og målte i bare ett spill. Vil ikke det være vel så riktig/feil som TPU?

 

Uansett; feilmarginen din var... Feil. ;)

Du sammenligner epler og bananer når du bruker resultatene fra Techpowerup og Techspot:

Techpowerup brukte et referansekort som "skal" bruke 170W: https://www.techpowerup.com/vgabios/163007/evga-gtx970-4096-140910

Techspot brukte et fabrikkoverklokket kort som "skal" bruke 180W: https://www.techpowerup.com/vgabios/167509/gainward-gtx970-4096-150123

Det er dermed rimelig å anta at Techspots resultater har et 970 som bruker minst 10W ekstra. Ut fra det jeg kan finne ut har vanlige 390 et budsjett på 208W for kjernen, som burde plassere totalt forbruk for kortet rundt 220-240W avhengig av hvor mye data som sendes til og fra VRAM.

 

Techpowerup testet et lignende kort (BIOS har i det minste samme 180W og det er samme produsent): https://www.techpowerup.com/reviews/Palit/GeForce_GTX_970_JetStream/26.html

Som du ser fikk Techpowerup dårligere ytelse i forhold til effekt fra dette kortet sammenlignet med stock 970.

 

Uansett er det en nyere test på Techspot av 970 mot 290: https://www.techspot.com/review/1822-geforce-gtx-970-vs-radeon-r9-290/

Her er plutselig forskjellen hele 90W mellom de to maskinene! Riktignok er 290 litt tregere enn 390, men de hadde omtrent lik effekt. Det kan fort hende at testen de gjorde i 2017 var et spill der 390 rett og slett ikke trakk så mye som det gjør ellers?

 

Så feilmarginen er kanskje 10% i enkelte tester, poenget er at det er nok mer enn nok målinger til å få et godt bilde av hva forskjellige kort bruker og krever for alle praktiske formål.

  • Liker 3
Lenke til kommentar

Etter at Afterburner fikk tilgang til voltkurvene i siste oppdatering så har jeg lekt meg øitt videre med undervolting. Kjører må 1264MHz@950mv på 580 Nitro+. Strømforbruk/ytelse Heaven 4:

1411@stock 69.5fps 154W

1264@950mv 65.5fps 90W 94% ytelse 58% W

1185@870mv 62.6fps 79W 90% ytelse 51% W

 

Tror jeg holder meg på 1264@950mv da Afterburner kan tvinges til å kjøre det på boot, mens wattman ofte resetter uten grunn og må aktiveres på nytt hver gang samt at den resetter spenning på minne til 950mv selv på lagra profil som gjør at forbruket blir likt som 1264@950mv.

 

Trist å se hvordan AMD presser en egentlig strømgjerrig arkitektur til langt over komfortsona for å få et lite overtak på de grønne på ytelse, men tape på støy, varme og forbruk.

 

Samma greia med Vega 56 og, med powerlimit på ca 180W har man i praksis 1070 ytelse med marginalt høyere forbruk, eller stock med 80-100W høyere forbruk og 5% mer ytelse.

  • Liker 1
Lenke til kommentar

Samma greia med Vega 56 og, med powerlimit på ca 180W har man i praksis 1070 ytelse med marginalt høyere forbruk, eller stock med 80-100W høyere forbruk og 5% mer ytelse.

Mitt Vega 56 yter ca det samme som 1080 med undervolt og +100 på minne. Kunne sikkert ha overklokket kortet litt mere, men da blir det mere varme i mitt allerede varme kabinett, så da går vinninga opp i spinninga.

Endret av TheKims
  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...