Gå til innhold

AMD RDNA2 (Radeon RX 6xxx)


ExcaliBuR

Anbefalte innlegg

Just now, -=HellBound=- said:

Var testet på en 3900X ser eg, 3600Mhz minne ;) Så hadde fått bedre resultater med annen cpu og bedre minne på 6800 XT også. Blir bedre når folk begynner få tingene her selv og kan teste :p 

True story!

Hvis de tør å teste da... Det er noe annet :D

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse
3 hours ago, Emile the rat said:

Du henger deg igjen opp i enkeltilfeller som avviker fra normalen. Husk nå at spill som Assassins Creed Valhalla er portet for konsoll, og at AMD derfor har fått optimalisert driverene før launch, mens Nvidia på sin side enda ikke har fått optimalisert sine drivere for dette spillet.

Valhalla er ikke et enkelttilfelle. Det er faktisk den nye normalen for spill som blir utviklet for konsoller de neste 5-7 årene. Portet konsoll spill kommer alle til å komme ferdig optimalisert for AMD. Vi får se hva Nvidia får til med drivere men tviler på at de kan ta igjen 20-30% som de ligger bak 🧐

Quote

Og nei, RT er ikke bare viktig for Nvidia, du kan for alvor ikke benekter det faktum at de nye konsollene har støtte for RT, og at det derfor er en selvfølge at denne teknologien vil bli pushet fremover (ingen er vel så naive og tror at Nvidia og AMD vil la RT bli ekslusivt for konsollspill i fremtiden), det betyr også at Nvidia vil måtte gi DLSS støtte til de fleste kommende spill. DLSS vet vi at gir rundt 60% mer ytelse på Nvidia sine skjermkort, dette er også tall du glemmer.

Her ble det litt mye rødvin. Nei, DLSS gir ikke Nvidia 60% bedre ytelse. DLSS er en oppskaleringsteknikk hvor Nvidia bruker RT kjernene sine (siden de for det meste gjør ingenting) til dette. Tv'en din har gjort dette i 20 år nå snart. Både Nvidia og AMD kunne ha puttet dette i kortene sine for lenge siden men det har vært fy fy i pc miljøet. DLSS er kun oppskalering av lavere oppløsning og på ingen måte noe nytt (ganske utrolig at Nvidia klarte å gjøre versjon 1 så utrolig dårlig)

 

Quote

Synes du skal være forsiktig med å kalle andre fanboy, når du er så til de grader en fanboy selv, blir veldig ironisk.

Sist jeg hadde AMD var i 2008 :) Men gleder meg til 5900X..

 

Quote

Men dette blir mitt siste svar til deg, kommer ikke til å se flere av dine innlegg. Du er en kranglefant som ikke er villig til å erkjenne og akseptere benchmarks som viser til andre tall enn du ønsker. Og når du mangler gode argumenter kommer du som regel med latterliggjøring, slike gidder jeg ikke å bruke mer tid på. Kos deg med 6800 XT.

:( huff da..

  • Liker 6
Lenke til kommentar
9 hours ago, scuderia said:

Valhalla er ikke et enkelttilfelle. Det er faktisk den nye normalen for spill som blir utviklet for konsoller de neste 5-7 årene. Portet konsoll spill kommer alle til å komme ferdig optimalisert for AMD. Vi får se hva Nvidia får til med drivere men tviler på at de kan ta igjen 20-30% som de ligger bak 🧐

Her ble det litt mye rødvin. Nei, DLSS gir ikke Nvidia 60% bedre ytelse. DLSS er en oppskaleringsteknikk hvor Nvidia bruker RT kjernene sine (siden de for det meste gjør ingenting) til dette. Tv'en din har gjort dette i 20 år nå snart. Både Nvidia og AMD kunne ha puttet dette i kortene sine for lenge siden men det har vært fy fy i pc miljøet. DLSS er kun oppskalering av lavere oppløsning og på ingen måte noe nytt (ganske utrolig at Nvidia klarte å gjøre versjon 1 så utrolig dårlig)

Valhalla er fremdeles et spill som bruker en forrige generasjons grafikkmotor.

Vil tro at neste generasjons spillmotorer vil være mye likere på konsoller som på PC. En av de største utfordringene de siste generasjonene på konsollene har vært at CPU har vært veldig svak sammenlignet med PC. På Series X og PS5 er heldigvis dette fikset med en moderne arkitektur (Zen2). 5-7 år frem i tid vil også AMD på PC ha utfordringen at arkitekturen på RDNA4 (eller hva hen de heter da) har forandret seg såpass fra RDNA2 som er i konsollene nå. I tillegg så er det også verdt å ha i bakhodet at mye av den nye funksjonaliteten som har kommet inn i DX12 Ultimate nå med raytracing (DXR), VRS og mesh shading er faktisk teknologi som Nvidia har pushet de siste årene.

DLSS er veldig mye mer enn "bare en oppskaleringsteknikk som Tv'en din har gjort i 20 år". Du kan ikke sammenligne bilinear eller nearest-neighbor interpolering som finner i TV'er med hva DLSS gjør. Simpel oppskalering som en TV gjør har vært grafikkort fra Nvidia og AMD i over 20 år, så det er overhodet ikke fy fy. DLSS bruker heller ikke RT-kjernene på GPU, men de bruker tensor-kjernene litt. 

Selvsagt er det en læringskurve når man utvikler en bleading edge teknologi (AMD har jo enda ikke lansert sin konkurrent til DLSS). Det er flere spill som har brukt DLSS versjon 1 med bedre hell enn FFXV. Den siste versjonen av DLSS har uansett blitt veldig bra, og det er flere tilfeller hvor "oppskalert 4K" faktisk ser bedre ut enn native 4K.

Men, dette blir ganske off-topic, så hvis det er andre uklarheter, og eventuelt andre ting du ikke helt forstår med Nvidia sin arkitektur så foreslår jeg at du tar det opp i RTX 30XX-tråden... :)

  • Liker 1
Lenke til kommentar
Nizzen skrev (11 timer siden):

True story!

Hvis de tør å teste da... Det er noe annet :D

Techpowerup har turt, og der scorer 3080 bedre enn 6800XT, selv i 1080p. 

Men benchmarkene til techpowerup er tydeligvis ikke gyldige i AMD leiren fordi de bruker 5000mhz på CPU core og 4000mhz på minne 😛 


 

Endret av Emile the rat
Lenke til kommentar
23 minutes ago, HKS said:

DLSS er veldig mye mer enn "bare en oppskaleringsteknikk som Tv'en din har gjort i 20 år". Du kan ikke sammenligne bilinear eller nearest-neighbor interpolering som finner i TV'er med hva DLSS gjør. Simpel oppskalering som en TV gjør har vært grafikkort fra Nvidia og AMD i over 20 år, så det er overhodet ikke fy fy. DLSS bruker heller ikke RT-kjernene på GPU, men de bruker tensor-kjernene litt. 

Selvsagt er det en læringskurve når man utvikler en bleading edge teknologi (AMD har jo enda ikke lansert sin konkurrent til DLSS). Det er flere spill som har brukt DLSS versjon 1 med bedre hell enn FFXV. Den siste versjonen av DLSS har uansett blitt veldig bra, og det er flere tilfeller hvor "oppskalert 4K" faktisk ser bedre ut enn native 4K.

 

Blabla og konklusjon er at DLSS er en oppskaleringsteknikk (og gir ingen som helst "ytelsesøkning"). DLSS gjør litt som E-shift som brukes i prosjektorer. Forskjellen er at DLSS gjetter på de manglende pixlene (som i teorien kan gi mer detaljer men er avhengig av hvor bra det gjettes). At DLSS kan være bedre en nativ forblir din påstand.

Nå jobber amd med hva de kaller super resolution som også gjetter på pixler så vi får se hva som kommer fremover. 

 

Quote

Men, dette blir ganske off-topic, så hvis det er andre uklarheter, og eventuelt andre ting du ikke helt forstår med Nvidia sin arkitektur så foreslår jeg at du tar det opp i RTX 30XX-tråden... :)

ooohhhh :)

 

Endret av scuderia
Lenke til kommentar
Ooinaru skrev (7 minutter siden):

Er det ikke en egen tråd for AMD vs Nvidia? Dette er vel en tråd utelukkende for RDNA 2?

Det blir nok bedre når folk i større grad får de nye skjermkortene i hus. Da blir det mer diskusjon rundt de ulike modellene, hvilken skal man kjøpe, hvordan tweake for best ytelse og evt. bra undervolts, osv. Akkurat nå har vi bare noen tester å se på.

  • Liker 1
Lenke til kommentar
TemporalFracture skrev (5 minutter siden):

Det virker å være en påstand fra mange hold sist jeg sjekket. Første versjon av DLSS var jo ikke noe spesielt, men seneste versjon er jo utvilsomt verdt det. Men hvor mange spill er det egentlig som støtter det?

I og med at RT har blitt et stort salgsargument for next gen konsoll, vil vi vel se stadig mer av det i kommende spill. 

Å ikke ta høyde for at RT og DLSS blir standard i de fleste kommende aaa spill tror jeg er dumt.

Endret av Emile the rat
Lenke til kommentar
TemporalFracture skrev (Akkurat nå):

Vil ikke det avhenge litt av støtte fra Nvidia, at devs bruker det, osv? Foreløpig virker det som DLSS har rettferdiggjort seg. RT, IMHO, virker litt tidlig ute enda.

For Ray Tracing kommer nok ganske mange til å implementere DX12 Ray Tracing, og Nvidia sin RT løsning er kompatibelt med denne. I tillegg er det nok flere som får hjelp av Nvidia til å optimalisere for RTX. Så får vi se om Microsoft / Sony / AMD klarer å optimalisere godt for RDNA2 i tillegg. 

  • Liker 1
Lenke til kommentar
7 minutes ago, TemporalFracture said:

Det virker å være en påstand fra mange hold sist jeg sjekket. Første versjon av DLSS var jo ikke noe spesielt, men seneste versjon er jo utvilsomt verdt det. Men hvor mange spill er det egentlig som støtter det?

DLSS 2.0 er fortsatt oppskalering. Native vil alltid være bedre. DLSS 2.0 så ser oppskaleringen finer ut enn i DLS 1.0, men det er fortsatt oppskalering, samme hvor mange ganger innhold fra Nvidia sin reklamebrosjyre blir gjentatt i denne tråden. 

  • Liker 1
Lenke til kommentar
2 minutes ago, Zlatzman said:

I tillegg er det nok flere som får hjelp av Nvidia til å optimalisere for RTX. Så får vi se om Microsoft / Sony / AMD klarer å optimalisere godt for RDNA2 i tillegg. 

Er det egentlig så mye som kan optimaliseres når det gjelder RT? Slik jeg har forstått det så er stort sett den eneste grunnen Ampere gjør det bedre i RT grunnet mer RT cores.

Lenke til kommentar
N o r e n g skrev (På 25.11.2020 den 18.09):

Nvidia gikk jo for Samsung 8nm fordi TSMC 7nm ikke hadde kapasitet. Zen 2 og Zen 3 er også produsert på TSMC 7nm.

TSMC 7nm dytter angivelig ut 140 000 wafere per måned: https://www.digitimes.com/news/a20200902PD200.html

En wafer har en diameter på 300 mm, ut fra denne kalkulatoren kan vi estimere antallet brikker per wafer. Hvis jeg setter "Defect Density" til 0.15 per kvadratcentimeter får jeg da følgende yield ut fra kalkulatoren:

  • 616 for Zen 3
  • 115 for PS5
  • 90 for Xbox Series X
  • 48 for Navi 21

Så er spørsmålet hva AMD vil allokere mest produksjonskapasitet til, og hvor stor andel av TSMCs kapasitet de har fått.

Da har det kommet nye nyheter om AMDs produksjonssituasjon: Linke til twitter, 80K wafere for Sony, 40K for Microsoft, og dette er ca 80% av AMDs tildelte kapasitet i Q4. Det gir AMD 30K wafere for sine "egne" produkter, som fordeles på Zen 2 APU-er, Zen 3 chiplets, RDNA2, og CDNA.

Jeg vet ikke hvordan AMD fordeler dette, men jeg tviler på at AMD har gitt RDNA2 mer enn 25% med tanke på marginbildet til de forskjellige produktene. Det betyr at i beste fall får AMD 7500 wafere med Navi 21, som gir maksimalt 370 000 RDNA2-produkter i hele Q4.

For Zen 3 blir det en del hyggeligere, AMD er kanskje oppe i 40% allokering her, det blir potensielt 7 millioner Zen 3 chiplets.

PS5 kan potensielt passere 10 millioner enheter i løpet av noen måneder

  • Liker 2
  • Innsiktsfullt 4
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...