Gå til innhold

TEST: AMD Radeon VII


Anbefalte innlegg

Skal en bruke det kun til spill så er vel RTX2080 best, selv om forskjellen er liten. Men AMD kortet kan være fint for de med annen bruk i tillegg, hvis der finnes et område de er bedre på. Det som er helt sikkert er at det er en kraftig forbedring fra tidligere AMD kort (Vega 64). Kortet er altså omtrent jevngodt med RTX2080 (og GTX 1080Ti).

 

Edit: Oppdaterte tester viser at Radeon VII er raskere enn RTX2080 i enkelte spill. Og er da jevngodt når det gjelder spill ytelse.

Endret av Svein M
Lenke til kommentar
Videoannonse
Annonse

Ja, veldig skuffende fra AMD... Her har de ikke maktet å lage noe mer enn verdens beste skjermkort for "content creators", som også gir bare litt over 10 ganger så høy FP64 ytelse som et RTX2080, og kun 8 ganger det man får med et 2080Ti, og som for de som skal game på en 4K TV med Freesync, vil kunne komme nær opp mot 2080Ti's ytelse. For ikke snakke om, med bare dobbelt så mye minne, og over dobbelt så høy minnebåndbredde som Nvidia's RTX2080, så skjønner vi jo at Radeon VII ikke er bygd for morgendagens spill...

 

Også er AMD så frekke å krever samme prisen som konkurrenten krever for sitt skjermkort som yter omtrent likt i spill!?!  :confused:  :p

Hvem trenger FP64-ytelse egentlig? Kan du forklare meg hva poenget er med det?

Hvilken type "content creators" er det snakk om her?

RTX 2080 Ti er vesentlig bedre til 4K-gaming enn et Radeon VII, dette har andre påpekt tidligere også. Freesync er ikke en kur for dårlig ytelse.

16GB VRAM er jo fint, men når kortet ifølge AMD selv sliter med ROP-flaskehalser i spill som Forza Horizon 4 allerede i dag ser jeg ikke hva det skal hjelpe å ha så mye VRAM og minnebåndbredde. Kortet trenger jo også den enorme minnebåndbredden for å være kompetetive med Nvidia i eldre spill som GTA V, så igjen lurer jeg på hva slags "fremtidssikring" for morgendagens spill du snakker om her. Videre er det hittil ingen spill som kan kjøres av kortet med akseptabel ytelse der mer enn 8GB er et poeng

 

GCN er forøvrig en skikkelig gammel arkitektur i 2019, den er allerede nå hele 7 år gammel, og problemene med store mengder geometri og at den ikke klarer å gi de mange shader-kjernene arbeid er mer tydelig i dag enn det har vært noen gang tidligere.

 

La meg påpeke noe: Radeon VII klarer å takle 7200 millioner trekanter i sekundet, Nvidias snart 4 år gamle 980 Ti klarer 6500, mens 2080 har klatret til 10800, likevel er AMDs kort fremtidssikkert? Spesielt med tanke på at Nvidias arkitekturer er bedre til å kutte vekk de polygonene som ikke synes.

  • Liker 3
Lenke til kommentar

...

Det er ikke noe vits å diskutere dette egentlig. Mennesker vil alltid ha sine meninger, basert på egne forventinger og synspunkter istedenfor fakta. Jeg prøver bare la være å irritere meg.

 

Når det er sagt så ..  :ph34r:

 

Vega var skuffende (og overpriset til de grader i et års tid) og nå dette. Samme ytelse som 1080Ti jeg kjøpte for snart 2 år siden

Vega var ikke skuffende - Det vil si, Vega 56 var iallfall ikke. Da jeg kjøpte det kostet Vega 56 mindre enn GTX 1070 og har høyere ytelse. Man kan også modde og klokke kortet lang utover hva man kan på nvida. Nvidia er for restriktivt. Og at prisen har vært høy er ikke AMD sin feil .. Prisen har vært idiotisk på mange varer pga cryptogalskap, dette gjelder ikke utelukkende for AMD.

 

Det som jeg syntes er skuffende er RTX serien, kanskje med unntak av RTX 2070. Det er ingen tvil om at RTX 2080 TI er rått - men prisen kan ikke forsvares. Argumentet mange bruker for prisen er at R&D var så dyr. Javel? Vi har også en stor R&D avdeling som koster oss en formue - men av og til kommer de opp med noe nytt som vi kan selge. Det er derfor vi fortsatt eksisterer .. Vi dekker ikke inn kostadene på R&D på ett og ett produkt. Vi betaler for R&D så vi i det hele tatt har noe å selge. Jeg, og mange er nok enig, i at DLSS og RTX heller ikke forsvarer prisen - iallfall ikke p.t. Salgene er dårlige og det vil komme kort uten disse teknologiene implementert på kortet. 

 

Nå - Jeg er ingen fanboy. Jeg har hatt og har kort fra både AMD og nvidia. Jeg syntes bare det må være mulig for folk å se at det finnes ulike applikasjoner, prisklasser og bruk av hardware. Det er ikke sort og hvitt alltid.

 

RTX 2080 er forøvrig bare tull ... Jeg hadde mer eller mindre samme ytelse på 1080 TI for 2 år siden ..

Endret av Kyrre S.
  • Liker 7
Lenke til kommentar

Hvem trenger FP64-ytelse egentlig? Kan du forklare meg hva poenget er med det?

Vel, jeg trenger ikke DLSS og RayTracing i sin nåværende form og til sin nåværende pris. Så siden jeg ikke trenger det, så er det vel ikke noe poeng med det heller?

 

Faktum er at Radeon VII har denne FP64 ytelsen, og at selv om hverken du, eller jeg trenger den. Så er den der, og er verdifull for noen. Og når disse "noen" finner et ledig øyeblikk, så er de så heldige med et R VII, at de ikke trenger et annet skjermkort til å game på...

 

Jeg tipper forøvrig at nettopp FP64 ytelsen vil gjøre disse kortene svært populære på bruktmarkedet senere. For selv når de en gang i fremtiden er utdatert på spillytelsen, så spørs det nok på om det vil komme andre billige spillkort med tilsvarende FP64 ytelse igjen. ;)

 

Hvilken type "content creators" er det snakk om her?

Fra DF's review, de har til og med tatt seg bryet med å gi et eksempel. Jeg har linket til det med timestamp.

 

https://youtu.be/7usANnBQC7U?t=322

 

RTX 2080 Ti er vesentlig bedre til 4K-gaming enn et Radeon VII, dette har andre påpekt tidligere også. Freesync er ikke en kur for dårlig ytelse.

Hva hjelper det om andre har påpekt noe tidligere, når det de påpeker er feil? At du gjentar at disse har tatt feil tidligere er ikke rare argumentet.

 

Jeg skjønner ikke at dette skal være så vanskelig å fatte. La oss si du har et R VII og kopler det til en 4K TV med Freesync over HDMI. Da har det ikke så mye å si om skjermkortet ditt ikke klarer å bli ferdig med en frame i løpet av 16,7 ms, så lenge du ikke er forferdelig langt unna. Ikke sant? Dette er selve poenget med Freesync.

 

Men selv 2080Ti vil få "stutter" i enkelte spill i 4K, dersom det ikke klarer å bli ferdig med en frame innen 16,7 ms. Og selv på en 4K Freesync TV betyr det at bildet blir hengende på skjermen i 33,3 ms i stedet for 16,7, dersom man har Nvidia skjermkort altså. Det er sinnssykt dårlig å ha samme bildet på skjermen i 33,3 ms med et skjermkort til ~12 000 Kr. Faktisk er det slikt man forventer av en konsoll til ~4000 Kr.

 

I mitt eksempel med 2080Ti, la oss si det for eksempel bruker 16,8 ms på en frame, og dermed ikke rekker "fristen". La oss si Radeon VII bruker, til og med 50% lenger tid enn det. Hva er likevel best? At bildet henger på skjermen i 25,2 ms med Radeon VII, eller i 33,3 ms med 2080Ti?

 

Kjempevanskelig spørsmål, du må gjerne ringe en venn siden det allerede er 50/50... :p

 

Men jeg skal ta det videre med et eksempel, for som sagt; jeg skjønner ikke at dette skal være så vanskelig å fatte. Hva er det folk tror adaptive sync er egentlig?

 

Så, videre fra eksempelet over: Eneste måten å unngå at bildet henger i 33,3 ms med et 2080Ti, er å spille med V-Sync av, og ha tearing i bildet hele tiden, eller med V-Sync på "adaptive" i Nvidia driveren, altså tearing hver gang det faller under 60 fps. ("Fastsync" er et tredje alternativ, men det vil introdusere "rubberbanding" i stedet, og kan fremdeles også gi stutter. Så jeg holder det uansett utenom for nå, så det ikke blir mer rot enn nødvendig.)

 

Uansett, om man ikke vil at det skal være tearing i bildet så og si hele tiden, så må man nesten ha vesentlig høyere fps average enn 60. Er du med? Og hva skjer med alt over 60 fps når man spiller med VSync på adaptive? Jo, all ytelse over blir kastet i søpla. Man har altså fått et skjermkort som aldri leverer fra seg mer enn 60 fps. Så det kan like så godt la være å prøve (og gjør jo forsåvidt akkurat det :p).

 

Så, for å kunne konkurrere mot dette dersom man har et R VII med Freesync støtte over HDMI, trenger man da å konkurrere mot den ytelsen som 2080Ti trenger for å holde seg over 60 fps til enhver tid? Nei, vi trenger faktisk kun konkurrere mot å komme så nærme opplevelsen som mulig.

 

Her er et eksempel bilde som illustrere hva jeg snakker om.

 

post-29200-0-73690600-1550401000_thumb.jpg

 

Dette er riktignok feil skjermkort og oppløsning, men fps kurven er alt jeg trenger for å illustrere en hypotetisk situasjon. Og det vi ser her er et skjermkort som klarer 80 fps i gjennomsnitt. Det er hva dette skjermkortet trenger å yte i gjennomsnitt for å aldri havne under 66 fps i løpet av benchmarken. Så om vi kaller dette kortet for 2080Ti i dette eksempelet. Så vil man altså få en kjempefin spillopplevelse med dette "2080Ti" kortet på en hvilken som helst 4K TV. Spørsmålet er hvor langt man måtte gå ned i bildekvalitet for å oppnå dette, om spillet var for eksempel Ghost Recon Wildlands? Vi er garantert ikke på "Ultra" lenger. :p

 

Så, i perioder er vi altså helt oppe i 105 fps, og 80 fps i gjennomsnitt, og dette bare for å aldri ramle under 60 fps (med en liten sikkerhets margin). Og all denne ytelsen over 60 fps streken kunne det altså like så godt ikke hatt, fordi brukeren aldri kommer til å se den.

 

I Ghost Recon Wildlands så vi at 2080Ti er ~25% raskere i 4K. Se derfor for deg et R VII med Freesync aktivert som klarer ~64 fps i gjennomsnitt. Nå, vårt R VII i dette eksempelet trenger aldri over 60 fps det heller, ettersom alt over er bortkastet. Men hvis vi antar kurven vil være ganske lik som for "2080Ti", så vil vårt R VII, da med 64 fps average, ramle maks kun ~17,5% under average fps, tilsvarende Hvordan "2080Ti's" 66 fps minimum er 17,5% mindre enn 80 fps gjennomsnittet.

 

Det vi har med vårt 2080Ti er altså 60 fps hele tiden, mens R VII kortet vårt vil gi 60 fps mesteparten av tiden. Men ved anledninger, uten at vi merker mye til det, så kan R VII synke helt ned til 52,8 fps. Eller sagt på en annen måte: Vi vet altså at R VII aldri ramler under 52,8 fps, og kunne satt en Custom resolution til det, og hatt det rock steady i stedet, og med det kuttet 2080Ti kortets 25% ledelse over R VII ned til 13,6%. Men hva ville vært poenget med det? Vi har jo Freesync for pokker, og vil for det meste, ha identisk ytelse!

 

Og så kommer "kickeren", jeg nevnte at selv 2080Ti må ned i bildekvalitet for å klare å komme seg såpass høyt opp i fps at det aldri ramler under 60 fps. Men med R VII, så er det jo ikke krise når vi ramler under. Så om man synes ytelsen er god nok selv rett under 50 fps f.eks. Så kan man faktisk spille på høyere bilde kvalitet med R VII, enn med 2080Ti...

 

Så, hva gir best "ytelse" av et 2080Ti på "Medium" bildekvalitet som aldri faller hverken over eller under 60 fps, og et R VII som ligger over "Medium" i bildekvalitet, men med en liten "penalty" i fps? Dette er grunnen til at jeg tillater meg å si at "ytelsen" til R VII kan med Freesync bli tilsvarende, eller til og med over 2080Ti. Fordi "ytelsen" alltid henger sammen med bildekvaliteten.

 

Men greit, nå har jeg gjort rede for min "filosofi" på området. Og dere må gjerne være uenige med meg i at R VII kan komme heeelt opp til 2080Ti nivå i akkurat dette eksempelet. Men vær ærlige nok i det minste til å innrømme at det vil daske RTX2080 på rumpa... :p 

 

16GB VRAM er jo fint, men når kortet ifølge AMD selv sliter med ROP-flaskehalser i spill som Forza Horizon 4 allerede i dag ser jeg ikke hva det skal hjelpe å ha så mye VRAM og minnebåndbredde. Kortet trenger jo også den enorme minnebåndbredden for å være kompetetive med Nvidia i eldre spill som GTA V, så igjen lurer jeg på hva slags "fremtidssikring" for morgendagens spill du snakker om her. Videre er det hittil ingen spill som kan kjøres av kortet med akseptabel ytelse der mer enn 8GB er et poeng

Det er faktisk flere spill som bl.a. Far Cry 5, der man kan velge adaptive resolution. Og det gumler opp VRAM, godt over 8GB, som ikke bare allokeres. Det er vel derfor man ikke gjør det med Nvidia skjermkort, RTX2080 ble for eksempel knust av R VII med den innstillingen på, vel i henhold til en Gamers Nexus video jeg så som jeg ihvertfall ikke gidder grave frem siden du ikke ser på dem uansett.

 

Ellers så jeg DF's review av Crackdown 3, der de faktisk flyttet spillet over på SSD for å redusere "stutters". Spørs på om det hadde vært nødvendig om man hadde hatt nok VRAM? ;)

 

Ellers har jo AMD ofte hatt en ledelse på VRAM mengde på skjermkortene sine, så jeg begynner jo å bli vant med "Man trenger ikke mer" argumentene som strengt tatt for meg høres mer og mer ut som det berømmelige: "640K ought to be enough for anyone".

 

Her ser vi for eksempel hvor smart det var å velge 3GB GTX1060 for eksempel. Selv i 1080p i BF1 får det altså grisebank av til og med 4GB 1050Ti. Utrolig nok skal det visstnok være på vei et GTX1660 med 3GB VRAM, i år 2019! :p

 

Men OK, greit nok, kanskje får jeg aldri bruk for de 8GB'ene ekstra, hverken til videoredigering eller spill. Men for meg så er det altså også slik at jeg håper jeg aldri får bruk for reserve dekket mitt. Men den dagen jeg får bruk for det, så tipper jeg at jeg kommer til å være rimelig glad for at bilen ble levert med. ;)

 

GCN er forøvrig en skikkelig gammel arkitektur i 2019, den er allerede nå hele 7 år gammel, og problemene med store mengder geometri og at den ikke klarer å gi de mange shader-kjernene arbeid er mer tydelig i dag enn det har vært noen gang tidligere.

 

La meg påpeke noe: Radeon VII klarer å takle 7200 millioner trekanter i sekundet, Nvidias snart 4 år gamle 980 Ti klarer 6500, mens 2080 har klatret til 10800, likevel er AMDs kort fremtidssikkert? Spesielt med tanke på at Nvidias arkitekturer er bedre til å kutte vekk de polygonene som ikke synes.

 

Hvem trenger trekanter egentlig? Kan du forklare meg hva poenget er med det? :p

 

Neida, "GCN begynner å bli gammel" argumentet synes jeg faktisk er et flott kompliment til AMD. At denne "gamle" teknologien holder koken enda er jo smått utrolig! At andre kort har høyere teoretisk ytelse på et område er for såvidt greit nok. Men det er bare slikt som gjør at vi ser enkelte spill der den ene arkitekturen er mer fordelaktig enn den andre. Av en eller annen grunn er jo for eksempel CMAA som å gi AMD kortene amfetamin. Og vi ser i spill som Dirt 4 at R VII faktisk matcher til og med 2080Ti, ingen "filmtriks", bare et AMD kort med spillkode den liker. :)

 

  • Liker 5
Lenke til kommentar

Det er ikke noe vits å diskutere dette egentlig. Mennesker vil alltid ha sine meninger, basert på egne forventinger og synspunkter istedenfor fakta. Jeg prøver bare la være å irritere meg.

 

Når det er sagt så ..  :ph34r:

 

Vega var ikke skuffende - Det vil si, Vega 56 var iallfall ikke. Da jeg kjøpte det kostet Vega 56 mindre enn GTX 1070 og har høyere ytelse. Man kan også modde og klokke kortet lang utover hva man kan på nvida. Nvidia er for restriktivt. Og at prisen har vært høy er ikke AMD sin feil .. Prisen har vært idiotisk på mange varer pga cryptogalskap, dette gjelder ikke utelukkende for AMD.

 

Det som jeg syntes er skuffende er RTX serien, kanskje med unntak av RTX 2070. Det er ingen tvil om at RTX 2080 TI er rått - men prisen kan ikke forsvares. Argumentet mange bruker for prisen er at R&D var så dyr. Javel? Vi har også en stor R&D avdeling som koster oss en formue - men av og til kommer de opp med noe nytt som vi kan selge. Det er derfor vi fortsatt eksisterer .. Vi dekker ikke inn kostadene på R&D på ett og ett produkt. Vi betaler for R&D så vi i det hele tatt har noe å selge. Jeg, og mange er nok enig, i at DLSS og RTX heller ikke forsvarer prisen - iallfall ikke p.t. Salgene er dårlige og det vil komme kort uten disse teknologiene implementert på kortet. 

 

Nå - Jeg er ingen fanboy. Jeg har hatt og har kort fra både AMD og nvidia. Jeg syntes bare det må være mulig for folk å se at det finnes ulike applikasjoner, prisklasser og bruk av hardware. Det er ikke sort og hvitt alltid.

 

RTX 2080 er forøvrig bare tull ... Jeg hadde mer eller mindre samme ytelse på 1080 TI for 2 år siden ..

 

For meg var Vega skuffende, og jeg er glad jeg ikke ventet og bare heller kjøpte først et 1080 ved launch, og året senere, når Vega faktisk kom ut, så kjøpte jeg et 1080Ti.

 

Fikk du et Vega 56 til rundt 4500 altså? Du kunne hatt 1070 til rundt 4500 når det kom i 2016, mens Vega 56 først kom året etter med høyere varmeutvikling og stort sett, høyere pris (pga mining). 

  • Liker 1
Lenke til kommentar

Det er ikke spill.

Her er spill: https://www.phoronix.com/scan.php?page=article&item=radeon-vii-linux&num=8

RTX 2080 vinner i Linux også så lenge man bare spiller.

 

RTX 2080 med 4%, og har vært ute lengre. Vil nå tro at driverne kan på AMD kan bli litt bedre etterhvert, spesielt siden Vega har blitt en del bedre 

Vega har økt med 40%~ siden release til jul, Vega64 69 til 97 FPS og Vega 56 fra 61 til 86 FPS i snitt for spill. 

https://www.phoronix.com/scan.php?page=article&item=rxvega-launch-2019&num=7

Lenke til kommentar

Fikk du et Vega 56 til rundt 4500 altså? 

3990,-  :thumbup:

Parkerte GTX 1070  :mrgreen:

 

Det at det kom senere betyr ikke noe. Mange mange ganger trenger jeg et skjermkort til et bygg - enten privat eller for noen andre. Da trenger jeg et skjermkort der og da, og kjøper det som gir mest for pengene, spesifikt for bygget det er snakk om. At det fantes noe tidligere som gav samme ytelse betyr jo ingenting da. Det er ikke alle som sitter å venter på det nyeste, og kjøper med en gang. Jeg handler etter behov.

Endret av Kyrre S.
Lenke til kommentar

3990,-  :thumbup:

Parkerte GTX 1070  :mrgreen:

 

Det at det kom senere betyr ikke noe. Mange mange ganger trenger jeg et skjermkort til et bygg - enten privat eller for noen andre. Da trenger jeg et skjermkort der og da, og kjøper det som gir mest for pengene, spesifikt for bygget det er snakk om. At det fantes noe tidligere som gav samme ytelse betyr jo ingenting da. Det er ikke alle som sitter å venter på det nyeste, og kjøper med en gang. Jeg handler etter behov.

Det er jo klart, men for min del så ser jeg først og fremst på hva pris/ytelse når produkter kommer på markedet, informerer meg om hva som er nytt og hva jeg selv føler for produktet. Så tar jeg gjerne nye runder og ser hva som er billigst i forhold til den ytelsen jeg ønsker. Men, er produktet for støyende, og har veldig høy varmeutvikling, så har det også innvirkning. Ser man på prisutviklingen på Vega 56, så har den jo vært alt alt for høy fram til nå omtrent. Nå får man både GTX 1070 og Vega 56 for under 3500. Greie priser det, men jeg tror jeg fortsatt ville valgt 1070 over Vega 56. Sannsynligvis ville jeg tatt et RTX 2060/1660 Ti i det prissjiktet. Mest grunnet Vega 56 sin varmeutvikling.

 

 

Lenke til kommentar

Det er jo klart, men for min del så ser jeg først og fremst på hva pris/ytelse når produkter kommer på markedet, informerer meg om hva som er nytt og hva jeg selv føler for produktet. Så tar jeg gjerne nye runder og ser hva som er billigst i forhold til den ytelsen jeg ønsker. Men, er produktet for støyende, og har veldig høy varmeutvikling, så har det også innvirkning. Ser man på prisutviklingen på Vega 56, så har den jo vært alt alt for høy fram til nå omtrent. Nå får man både GTX 1070 og Vega 56 for under 3500. Greie priser det, men jeg tror jeg fortsatt ville valgt 1070 over Vega 56. Sannsynligvis ville jeg tatt et RTX 2060/1660 Ti i det prissjiktet. Mest grunnet Vega 56 sin varmeutvikling.

Ja, i dag hadde jeg nok ikke kjøpt Vega 56 - spesielt siden 2060 er ute. Jeg ser der og da liksom - og august 2017 var dette beste valget i denne prisklasse.

 

Varme/støy er lett å gjøre noe med på et skjermkort - og det gjør jeg alltid uansett. Så for min del ser jeg ikke på disse faktorene ved handel.

Lenke til kommentar

Ja, i dag hadde jeg nok ikke kjøpt Vega 56 - spesielt siden 2060 er ute. Jeg ser der og da liksom - og august 2017 var dette beste valget i denne prisklasse.

 

Varme/støy er lett å gjøre noe med på et skjermkort - og det gjør jeg alltid uansett. Så for min del ser jeg ikke på disse faktorene ved handel.

Varme og støy er lett å gjøre noe med på et skjermkort. Det koster fort et par tusen kroner :D Men det trenger vi ikkje å regne med i prisen  :tease:

Lenke til kommentar

Varme og støy er lett å gjøre noe med på et skjermkort. Det koster fort et par tusen kroner :D Men det trenger vi ikkje å regne med i prisen  :tease:

Det er helt riktig .. Fordi jeg ville gjort samme arbeidet uansett skjermkort. Dermed kan man nulle denne kostpris ut. Basic matte  :w00t::p

Endret av Kyrre S.
Lenke til kommentar

Kunne kanskje hatt med både ny og gammel driver fps i grafene også, ser at det står at kortet var så så mange prosent bedre osv, men hadde jo vært greit å ha det i grafene også så man faktisk ser hvor mye fps de prosentene egentlig utgjør(jada, man kan regne seg fram til det, men nei ellers takk).

  • Liker 1
Lenke til kommentar
Gjest Slettet+5132

Hvem trenger FP64-ytelse egentlig? Kan du forklare meg hva poenget er med det?

Hvilken type "content creators" er det snakk om her?

Jeg trenger det :p Bruksområde: Vitenskapelige simuleringer på GPU. Det er et veldig snevert område (tilsvarende simuleringer for spill klarer seg fint med float), men følte jeg måtte nevne det :p

Lenke til kommentar

Jeg trenger det :p Bruksområde: Vitenskapelige simuleringer på GPU. Det er et veldig snevert område (tilsvarende simuleringer for spill klarer seg fint med float), men følte jeg måtte nevne det :p

Hvis du kjøper privat gjelder vel dette ja, i arbeidssammenheng hadde du vel bare kjøpt et Titan V eller Quadro GV100?

Eller er minnebåndbredde spesielt viktig?

 

Problemet, som Gabri3l overser fullstendig i sitt siste essay, er at dette bare gjelder en svært liten gruppe av markedet.

For de aller aller fleste er RTX 2080 rett og slett et bedre valg, de få tilfellene der man heller velger Radeon VII koker ned til:

  1. De som trenger FP64, og ikke CUDA.
  2. De som spiller primært på UHD-TV med freesync-støtte (tror ikke det finnes 10 modeller med dette en gang).

Dette er og blir et særdeles lite marked, det hjelper ikke at AMD er overlegne her så lenge de ikke klarer å konkurrere utenfor spesifikke, ofte kunstig begrensede scenarier.

  • Liker 2
Lenke til kommentar

Problemet, som Gabri3l overser fullstendig i sitt siste essay, er at dette bare gjelder en svært liten gruppe av markedet.

For de aller aller fleste er RTX 2080 rett og slett et bedre valg, de få tilfellene der man heller velger Radeon VII koker ned til:

  •  
  • De som trenger FP64, og ikke CUDA.
  • De som spiller primært på UHD-TV med freesync-støtte (tror ikke det finnes 10 modeller med dette en gang).
Dette er og blir et særdeles lite marked, det hjelper ikke at AMD er overlegne her så lenge de ikke klarer å konkurrere utenfor spesifikke, ofte kunstig begrensede scenarier.

 

 

Problemet er vel heller noe du overså fullstendig; konteksten for kommentaren min til MrMarbles. MrMarbles kom nemlig med en "blanket statement" der han hevdet at Radeon VII var "Veldig skuffende fra AMD".

 

Jeg gjorde så MrMarbles oppmerksom på at Radeon VII faktisk er klasseledende på et par områder. De områdene trengte ikke være aktuelle for hverken Mr. Marbles, meg, eller andre som måtte lese tråden. De trengte bare være reelle bruksområder for noen. Så, selv om de tingene Radeon VII er klasseledende på, ikke er noe noen av oss her nødvendigvis har nytte av, synes jeg likevel det er litt merkelig å høre produktet omtalt som "skuffende", når det for noen faktisk er det beste de kan få tak i til sitt formål.

 

Poenget jeg prøvde å få frem, var at selv om AMD har sett seg nødt til å lansere Radeon VII som et "gaming" skjermkort også. Så er det ikke det det først og fremst egentlig er. AMD har da også forsøkt å tone ned "Gaming" aspektet litt. Og om man går på AMD's webside nå, blir man riktignok ønsket velkommen til å ta en titt på "verdens første 7nm gaming GPU". Men med den litt merkelig tagline'en: "Extraordinary Creation. Extreme Gaming."? Det første de nevner er "creation"? Og den første ytelses angivelsen er for Blender? På et gaming skjermkort?

 

Dette er selvsagt ikke overraskende for de av oss som visste hva slags kort dette faktisk er. Vega 56 og 64 har fått sine nummer angivelser fra antall compute units, så om noe, kunne vi nesten grovt sagt se på Radeon 7 som en krympet og overklokket Vega 60 med dobbelt så mye VRAM, og dermed dobbelt så høy minnebåndbredde. Personlig ble jeg faktisk nesten positivt overrasket over at ytelsen i spill er såpass bra som den er. Opp til 39% raskere enn V64 hadde jeg faktisk aldri trodd. Ytelsen vi reellt sett hadde anledning til å forvente, den er der den. Du selv spådde jo faktisk dårligere ytelse enn den har vist seg å ha i reviews. Er du "skuffet" over at den yter bedre enn du forventet? ;)

 

Jeg mener vi har anledning til å være skuffet over at Navi sannsynligvis har blitt utsatt. Men skuffet over at verdens billigste FP64 kort, som også egner seg svært bra til videoredigering, som har mest VRAM, og høyest minnebåndbredde av alle "gaming" kort på markedet, for ikke snakke om også er svært godt egnet til å spille på "BFG Display", og er priset likt sin nærmeste konkurrent som den nesten matcher i gjennomsnittlig ytelse? Nei, det synes jeg ikke vi har rett til å være. Som sagt; vi kan være skuffet over at vi ikke fikk skjermkortet vi ventet på. Men ikke at erstatningen AMD ikke var forpliktet til å selge oss, ikke nådde helt opp i det ene bruker scenarioet som er viktigst for oss. 

 

Og ja forresten, apropos "kunstig begrensede scenarier". Vil du si at Nvidia's "BFG Display" er ett av dem? Eller gjelder det bare når AMD's skjermkort gjør det bra i samme segment? :p

 

Jeg er forøvrig bare kjent med 3 G-Sync modeller på vei ut i markedet, så selv bare 20 forskjellige modeller fra Samsung i fjor sommer med Freesync, må vel i så fall være nesten 7 ganger bedre? :p Vel, før vi tar med pris i betraktning selvsagt. For der innstegs pris til adaptive sync over 60" med Nvidia skjermkort i 4K  ligger rundt 40 000 Kr. Så kan man slippe med for eksempel 16 500 Kr for en 75" TV fra Samsung. It's like Déjà vu all over again! "Velg Freesync, og spar penger!". :p Noe sier meg at om 4K Freesync TV gaming blir et kunstig begrenset scenario, så må vi ha mikroskop for å finne Nvidia's BFG Display marked...

 

Og jeg beklager, men jeg måtte jo flire litt av denne mens vi er inne på smått: "Dette er og blir et særdeles lite marked, det hjelper ikke at AMD er overlegne". Sånn av nysgjerrighet, kan vi si det samme om Nvidia dersom de skulle satse på et "særdeles lite marked"? Kunder som er interessert i et 12 000 Kroners gaming skjermkort for eksempel? :p

Endret av Gabri3L
  • Liker 1
Lenke til kommentar

Hvilket program?

 

Ikke helt direkte det du svarte på, men Phoronix hadde og test av den. Og der gjorde VII det bedre enn 2080 på diverse OpenCL kalkuleringstester (sammenlagt/snitt), og 4% dårligere enn 2080 på spill, i snitt. Skrev det tidliggre og. 

 

 

Hvis du kjøper privat gjelder vel dette ja, i arbeidssammenheng hadde du vel bare kjøpt et Titan V eller Quadro GV100?

Eller er minnebåndbredde spesielt viktig?

 

Problemet, som Gabri3l overser fullstendig i sitt siste essay, er at dette bare gjelder en svært liten gruppe av markedet.

For de aller aller fleste er RTX 2080 rett og slett et bedre valg, de få tilfellene der man heller velger Radeon VII koker ned til:

  1. De som trenger FP64, og ikke CUDA.
  2. De som spiller primært på UHD-TV med freesync-støtte (tror ikke det finnes 10 modeller med dette en gang).

Dette er og blir et særdeles lite marked, det hjelper ikke at AMD er overlegne her så lenge de ikke klarer å konkurrere utenfor spesifikke, ofte kunstig begrensede scenarier.

 

tja, finnes jo tester hvor VII har slått RTX Titan, https://www.tomshardware.com/reviews/amd-radeon-vii-vega-20-7nm,5977-4.html første luxmark testen, men da kunne man jo sikkert gått får Pro serien hvis man er kommersielle. Finnes dog også tester hvor VII er blitt slått av 1070.

Og hvis man er en hobby-"contentmaker", så vil nok pris ha litt å si, RTX Titan er 27990, mens VII er 7449

 

ninjaedit: Savner sammenligning mellom de to driver versionene 

Endret av Deadhound
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...