Gå til innhold

AMD RDNA2 (Radeon RX 6xxx)


ExcaliBuR

Anbefalte innlegg

Videoannonse
Annonse
Nizzen skrev (36 minutter siden):

Kanskje som forventet:
Cyberpunk 2077 will not have Ray Tracing on AMD RX 6000 GPUs at launch
https://www.guru3d.com/news_story/cyberpunk_2077_will_not_have_ray_tracing_on_amd_rx_6000_gpus_at_launch.html

Kan det ha noe med dette å gjøre?

ExcaliBuR skrev (16 timer siden):

Om dette stemmer så kan det være en god ting for AMD:

Og en annen ren hypotese fra meg:

Kan grunnen være for at AMD ikke lanserte demoen sin som kjørbar, men heller film, være fordi driverne pr. nå har et stort problem med RT? Også ref. rapporteringene fra reviewers om dårlig kvalitet etc.

 

Lenke til kommentar
23 hours ago, ExcaliBuR said:

Om dette stemmer så kan det være en god ting for AMD:

Og en annen ren hypotese fra meg:

Kan grunnen være for at AMD ikke lanserte demoen sin som kjørbar, men heller film, være fordi driverne pr. nå har et stort problem med RT? Også ref. rapporteringene fra reviewers om dårlig kvalitet etc.

Men har Nvidia spesialkjerner til RT i 3000-serien? Har AMD noe spesialinstruksjonsgreier i sin 6000-serie?

Lenke til kommentar
G skrev (11 minutter siden):

Men har Nvidia spesialkjerner til RT i 3000-serien? Har AMD noe spesialinstruksjonsgreier i sin 6000-serie?

Jeg kan ingenting om RT og implementasjonen av det. Men om vi går videre fra tweeten, og om det stemmer, så er det tydeligvis forskjeller.

Jeg bare synes det er rart at en tech demo AMD skulle gi ut som kjørbar, ble kun gitt ut som film. Hva ledet dem til det valget?

  • Innsiktsfullt 1
Lenke til kommentar
4 minutes ago, Emile the rat said:

Ja, nvidia har egne dedikerte RT cores, det har ikke AMD.

Så Nvidia spanderer egentlig på litt ekstra ytelse, iom. at de normale kjernene må ta seg av ordinær grafikk som før? Mens, AMD spanderer på litt VRAM kun? Vi får vel vite flere detaljer etterhvert som RT hos AMD modnes. Men ytelsen med RT må jo åpenbart kjøres på normale kjerner hos AMD. Får håpe at de har bakt inn instruksjonssett som gjør slikt noe mer lettkjørt, siden de ikke ser ut å ha spesialkjerner for det.

Endret av G
Lenke til kommentar
G skrev (1 minutt siden):

Så Nvidia spanderer egentlig på litt ekstra ytelse, iom. at de normale kjernene må ta seg av ordinær grafikk som før? Mens, AMD spanderer på litt VRAM kun? Vi får vel vite flere detaljer etterhvert som RT hos AMD modnes. Men ytelsen med RT må jo åpenbart kjøres på normale kjerner hos AMD. Får håpe at de har bakt inn instruksjonssett som gjør slikt noe mer lettkjørt, siden de ikke ser ut å ha spesialkjerner for det.

Hos AMD er de en del av en CU. Og instrukssjonssettet for dem er DX12 Ultimate så vidt jeg har forstått.

Om det er noen andre forskjeller, annet enn effektiviteten mellom de to forskjellige løsningene, kan ikke jeg forklare. Om nVidia har "flere egenskaper" i sine kjerner enn AMD i sine RA CUs? Eller om AMD og nVidia har samme støtte i hovedsak (hvordan RT håndteres), men nVidia sin løsning er mer effektiv som sagt. 

  • Innsiktsfullt 1
Lenke til kommentar
G skrev (1 minutt siden):

Så Nvidia spanderer egentlig på litt ekstra ytelse, iom. at de normale kjernene må ta seg av ordinær grafikk som før? Mens, AMD spanderer på litt VRAM kun? Vi får vel vite flere detaljer etterhvert som RT hos AMD modnes. Men ytelsen med RT må jo åpenbart kjøres på normale kjerner hos AMD. Får håpe at de har bakt inn instruksjonssett som gjør slikt noe mer lettkjørt, siden de ikke ser ut å ha spesialkjerner for det.

Det folk ser ut til å glemme er at Microsoft sin versjon av RT er open source, så selv om Microsoft optimaliserer sin RT teknologi og AMD optimalisere sine driverene, så vil nvidia kunne dra større nytte av dette pga. sine dedikerte kjerner.

Så dersom spill hadde blitt optimalisert for bedre ytelse med Microsoft sin implementasjon av ray tracing vil det også gagne nvidia, som bare kan kjøre det via egne dedikerte kjerner.

AMD kan få bedre RT ytelse, men da vil nok det gjelde for nvidia og, så gapet mellom AMD og nivida i RT blir nok ikke mindre. Det er begrenset hva man kan gjøre med software, fordi AMD har den begrensningen at de ikke har egne kjerner som er dedikert til RT, slik  som nvidia .

Det er enkel matte, det er ikke nok prosessorkraft til at det vil la seg ta igjen.

Lenke til kommentar
10 minutes ago, Emile the rat said:

Det folk ser ut til å glemme er at Microsoft sin versjon av RT er open source, så selv om Microsoft optimaliserer sin RT teknologi og AMD optimalisere sine driverene, så vil nvidia kunne dra større nytte av dette pga. sine dedikerte kjerner.

Så dersom spill hadde blitt optimalisert for bedre ytelse med Microsoft sin implementasjon av ray tracing vil det også gagne nvidia, som bare kan kjøre det via egne dedikerte kjerner.

AMD kan få bedre RT ytelse, men da vil nok det gjelde for nvidia og, så gapet mellom AMD og nivida i RT blir nok ikke mindre. Det er begrenset hva man kan gjøre med software, fordi AMD har den begrensningen at de ikke har egne kjerner som er dedikert til RT, slik  som nvidia .

Det er enkel matte, det er ikke nok prosessorkraft til at det vil la seg ta igjen.

Det jeg også lurer litt på. Siden jeg ikke kan nok om AI. Så får en bare synse i vei.

AI er jo rimelig unikt med Nvidia som har satset stort på dette. Jeg bare får en følelse av at kanskje det kan gjøre bruken av GPU enda mer fleksibel. Er jo ikke helt sikkert at det hjelper så mye på utnyttelse av ordinære + RT-kjerner, eller om AI er i RT-kjernene eller hva det går i. Uansett en spennende utvikling og sikkert et rent helvete å kode for alt dette her??

Intel har vel også tidligere hatt litt mer universale kjerner i forsøks-GPU'er som ikke så markedet, men var et designstep for å utvikle framtidig varer.

Tror det var i denne video jeg så noe om dette:

 

Endret av G
Lenke til kommentar
G skrev (6 minutter siden):

Det jeg også lurer litt på. Siden jeg ikke kan nok om AI. Så får en bare synse i vei.

AI er jo rimelig unikt med Nvidia som har satset stort på dette. Jeg bare får en følelse av at kanskje det kan gjøre bruken av GPU enda mer fleksibel. Er jo ikke helt sikkert at det hjelper så mye på utnyttelse av ordinære + RT-kjerner, ellerom AI er i RT-kjernene eller hva det går i. Uansett en spennende utvikling og sikkert et rent helvete å kode for alt dette her??

Greia med nvidia og AI er at de har CUDA cores som kan sammenlignes med CU cores hos AMD. CU cores deler på alt arbeid hos AMD.

Nvidia på sin side har RT cores som tar seg av ray tracing, og egne dedikerte tensor cores som tar seg av AI og DLSS, mens CUDA cores gjør resten.

Men hos AMD så må som sagt CU cores ta seg av alle oppgaver, både RT og DLSS i tillegg til resten. Da sier det seg selv at AMD har begrensninger med hva de kan få ut av sine CU cores i RT og DLSS, sammenlignet med nvidia som har egne dedikerte kjerner til begge deler.

Tror det er enkleste måten å forklare det.

Endret av Emile the rat
  • Liker 1
Lenke til kommentar
Emile the rat skrev (1 minutt siden):

AMD kan få bedre RT ytelse, men da vil nok det gjelde for nvidia og, så gapet mellom AMD og nivida i RT blir nok ikke mindre. Det er begrenset hva man kan gjøre med software, fordi AMD har den begrensningen at de ikke har egne kjerner som er dedikert til RT, slik  som nvidia .

Det er enkel matte, det er ikke nok prosessorkraft til at det vil la seg ta igjen.

Er ikke en Ray Accelerator dedikert område for nettopp RT? Forskjellen er i hvordan AMD har implementert det som en del av CU, mens nVidia har valgt å holde de utenfor CUDA kjernene.

rdna-2-compute-units-100867216-orig.jpg

 

931de56a-6f36-4361-9d28-260bca7d58eb.png

Fun fact: 3080 har 84 RT  "kjerner", 6800 XT har 72 RA.

  • Liker 5
Lenke til kommentar
Emile the rat skrev (8 minutter siden):

Greia med nvidia og AI er at de har CUDA cores som kan sammenlignes med CU cores hos AMD. CU cores deler på alt arbeid hos AMD.

Nvidia på sin side har RT cores som tar seg av ray tracing, og egne dedikerte tensor cores som tar seg av AI og DLSS, mens CUDA cores gjør resten.

Men hos AMD så må som sagt CU cores ta seg av alle oppgaver, både RT og DLSS i tillegg til resten. Da sier det seg selv at AMD har begrensninger med hva de kan få ut av sine CU cores i RT og DLSS, sammenlignet med nvidia som har egne dedikerte kjerner til begge deler.

Tror det er enkleste måten å forklare det.

Scheduleren til AMD jobber med det.

CUDA kjernene inneholder vel tensor kjernene?

index.php?ct=articles&action=file&id=636

Det kan også se ut til at 4 CUDA cores deler på 1 RT "kjerne"?

Endret av ExcaliBuR
Fant bedre bilde.
  • Liker 2
Lenke til kommentar
ExcaliBuR skrev (Akkurat nå):

Er ikke en Ray Accelerator dedikert område for nettopp RT? Forskjellen er i hvordan AMD har implementert det som en del av CU, mens nVidia har valgt å holde de utenfor CUDA kjernene.

rdna-2-compute-units-100867216-orig.jpg

 

931de56a-6f36-4361-9d28-260bca7d58eb.png

Fun fact: 3080 har 84 RT  "kjerner", 6800 XT har 72 RA.

Siden AMD har implementert RA i sine CU kjerner, så vil jo det holde av CU kjerner som kunne vært brukt til andre oppgaver, mens nvidia som har avskilt disse, gjør slik så at alle CUDA kjernene står ledig til disposisjon.

Så nei, det kan ikke sammenlignes helt tror jeg, fordi AMD må man "ofre" CU kjerner for ray tracing, fordi RA er implementert i CU kjernene (om jeg har forstått rett)

I tillegg, når AMD får sin DLSS funksjon, så vil det også ta av CU kjernene, mens nvidia igjen har egne TC for dette. Da vil nok impakt på ytelse med RT blir større hos AMD enn hos nvidia, i tillegg til at det vil bli mer begrenset hvor mye det blir å hente på DLSS hos nvidia, siden man må "låne" CU kjerner for å få mer fps via DLSS.

Jeg tror AMD har gått for denne løsningen fordi det 1) er billigere, og 2) de kan pushe ut RT tidligere, siden nvidia har allerede hatt en generasjon med RT og DLSS bak seg, så da må AMD ta igjen RT ytelse på første generasjon RT.

Fordelen, er at da får AMD "råd" til å ha mer minne på sine skjermkort, 16GB vs 10GB på 3080.

Prisen på 3090 er skrudd veldig opp pga. de ekstreme mengdene med minne. Jeg tipper (vill gjetting fra min side) at siden AMD kjører kun CU kjerner kan de putte mer minne på sine kort uten at det går utover produksjonskostnadene.

Lenke til kommentar
ExcaliBuR skrev (6 minutter siden):

Scheduleren til AMD jobber med det.

CUDA kjernene inneholder vel tensor kjernene?

index.php?ct=articles&action=file&id=636

Det kan også se ut til at 4 CUDA cores deler på 1 RT "kjerne"?

Godt mulig, tror jeg må google litt.

Men etter hva jeg kan se på benchmark, så ser det ut som at mangelen på RT kjerner og tensor cores hos AMD har en relativt stor impact på ray tracing ytelsen.

Lenke til kommentar

RT-utviklingen vil leve sitt eget liv siden ingen parter har noe valg lengre. Det jeg lurer mest på er om AMD ser på AI som en kuriositet, eller om de kommer til å henge seg etter Nvidia i forhold til det. Nvidia har jo skikkelig erfaring med AI i og med at de satser på styrekort for autonome kjøretøy, og muligens tilbyr AI i andre løsninger ala super computere eller hva det nå måtte ende i av produkter.

Nå demonstrertes det jo green screen AI fra Nvidia, som var en skikkelig fet greie, som vil fenge en del videostreamere ihvertfall. AI kan sikkert nyttes til så mangt..

 

Endret av G
  • Liker 1
Lenke til kommentar
Simen1 skrev (4 minutter siden):

RT og RA kan neppe telles opp og sammenlignes direkte. Akkurat som antall cuda cores og CU ikke kan sammenlignes direkte.

Det er interessant å vite oppbygningen, men man får ikke ytelsetall ut fra det. Da må man heller kikke på relevante tester.

Sant, det er det som er poenget.

Tror ikke det er så enkelt de er fundamentalt forskjellige fordi ene teamet kalte det kjerner mens det andre kalte det akseleratorer

Endret av ExcaliBuR
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...