Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

AMD RDNA2 (Radeon RX 6xxx)


ExcaliBuR

Anbefalte innlegg

2 hours ago, Mixy said:

 

 

Takk for en ryddig oppsummering.

For min del venter jeg til markedet har roet seg. Det blir oppgradering av CPU/hk/ram nå også holder jeg på 2080 en stund til

 

God ide! Jeg er i samme båt, skal ikke kjøpe noe nå, men tenker det blir en build bygget på Ryzen 5900 og Big Navi 6900XT neste år en gang.

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse
G skrev (9 minutter siden):

Når kommer 6950XT og 6850XT? Må vel ha noe å svare 3080Ti med vel?

Hehe, si det. Blir interessant å se hva de gjør når Nvidia kommer med 3080Ti eller noe i den duren, ja. Lover godt for fremtiden det her.😀

Endret av Djevlen90
Skriveleif
  • Liker 1
Lenke til kommentar
6 minutes ago, G said:

Har mitt 5600XT "hooked up" til dette på skrivebordet. Helt enorm arbeidsflate til desktoparbeid. Har prøvd noen få spilltitler, men spørs om dette er grafikkortet for skikkelig gaming på en så enorm oppløsning 4K 120Hz.

  

OLED egner seg best til gaming! Spørsmålet blir om 48" er for stort for deg. Jeg synes at det er sweet. Spesiellt til desktopbruk.

Du må bare huske på en ting, og det er at du 'brenner ut' OLEDene over tid, selv om du ikke har statisk bilde elementer hele tiden. Men selvsagt dersom man driter i det, så er det bare å kjøre på, tar jo trolig noen år før det merkes. Men dette er OLEDs natur, og kan ikke forhindres, selv med alle refresh ting de har i TVen, kan bare utsettes. Det er bare snakk om tid.

OLED er også en dårlig ide for familie TV, der kids og koner setter ting på pause og går fra TVen i statisk bilder. Dette er ikke bra for familielivet, dersom man bryr seg om TVen. Eneste OLED er godt egnet for er hjemmekino, der man ser på film primært og ikke vise statisk bilde elementer over lang tid eller går fra TVen i 'pause'.

Kjøpte i sommer en Samsung QLED, men hadde lenge tenkt kjøpe LG OLED, men jeg skiftet mening i siste øyeblikk pga brenning, og pga da jeg var i butikken var gjennskinn i LG TVene ABSURD. Hadde aldri kjøpt en LG OLED for å bruke i et rom med lys.

Meeeeen nå sporer vi av her...

Lenke til kommentar
3 hours ago, JarleGutt said:

Eneste problemet er at alle butikker er VELDIG mye raskere med å sette opp prisene, enn de setter de ned igjen :)

Men ja, det BURDE bli billigere hardware fremover om denne trenden fortsetter, som er avhengig av hva som skjer i USA.

Montro hvor mye grafikkortene (de eldre modellene), settes opp nå suksessivt i forkant av BF og Cybermonday? :confused::blink:

Lenke til kommentar

Uannsett hvordan man vender og snur på det; er det nå bra at AMD kommer med kort som kan konkurrere med nVidia, pga prisene på GPUer i det siste har tatt helt av og har begynt å bli noe absurd (også for sikkert 6900XT, men garantert dog lavere enn 3090 som er en Titan uten Titan navnet som jeg før har hevdet er gjort med full mening, pga det psykisk gjør noe med kjøpere som ellers ALDI ville kjøpt Titan kort)

  • Liker 2
Lenke til kommentar
JarleGutt skrev (4 minutter siden):

Du må bare huske på en ting, og det er at du 'brenner ut' OLEDene over tid, selv om du ikke har statisk bilde elementer hele tiden. Men selvsagt dersom man driter i det, så er det bare å kjøre på, tar jo trolig noen år før det merkes. Men dette er OLEDs natur, og kan ikke forhindres, selv med alle refresh ting de har i TVen, kan bare utsettes. Det er bare snakk om tid.

Det er bare tull. Svært overhauset problem. Du skal gjøre det svært mye før det blir reelt. Har hatt OLED i mange år og (uten at jeg er nevrotisk noia på å følge med på at ikke skjermen blir stående AFK pga. frykt for burn in). 

  • Liker 2
  • Innsiktsfullt 2
Lenke til kommentar
2 minutes ago, JarleGutt said:

Du må bare huske på en ting, og det er at du 'brenner ut' OLEDene over tid, selv om du ikke har statisk bilde elementer hele tiden. Men selvsagt dersom man driter i det, så er det bare å kjøre på, tar jo trolig noen år før det merkes. Men dette er OLEDs natur, og kan ikke forhindres, selv med alle refresh ting de har i TVen, kan bare utsettes. Det er bare snakk om tid.

OLED er også en dårlig ide for familie TV, der kids og koner setter ting på pause og går fra TVen i statisk bilder. Dette er ikke bra for familielivet, dersom man bryr seg om TVen. Eneste OLED er godt egnet for er hjemmekino, der man ser på film primært og ikke vise statisk bilde elementer over lang tid eller går fra TVen i 'pause'.

Kjøpte i sommer en Samsung QLED, men hadde lenge tenkt kjøpe LG OLED, men jeg skiftet mening i siste øyeblikk pga brenning, og pga da jeg var i butikken var gjennskinn i LG TVene ABSURD. Hadde aldri kjøpt en LG OLED for å bruke i et rom med lys.

Meeeeen nå sporer vi av her...

Innbrenning forteller de at har kommet seg veldig på de nyeste LG generasjonene da. Ikke vet jeg, men tar sjansen.

Dessuten så er jeg helt enig med deg om glossyness. Hater det, men merker at det ikke er så stort problem når man sitter ekstra nær. Skjermen er svært lyssterk. Har også en sekundermonitor på 32" som lyser inn fra siden. Ikke noe problem det heller. Har ikke lyskilde i taket da. Og rommet er ganske dunkelt. Har ellers plassert hyllemøbel som dekker oppover halve veien på vinduet, så det er ikke noe problem med dagslys. Men jeg hadde vært skeptisk til å ha glossy skjerm i TV-stue. Men ser jo ikke ut å være noen vei utenom. Ser TV på 32" monitor som jo er matt i overflaten. Kjører det fra en PS4, helst Netflix. Litt liten skjermrute, men sitter man nær nok så går det inntil videre.

Lenke til kommentar

Lurer på hvem som snitcha opplysninger om big navis ytelse til Nvidia ?

Det må jo være en muldvarp i selskapet deres, Nvidia hadde neppe satt ned prisen sin så radikalt med 3080 om de ikke hadde vist noe på forhånd, normalt skulle de jo hatt en 12000 for sånne kort.

Endret av unicorndeath
  • Liker 1
Lenke til kommentar
59 minutes ago, Emile the rat said:

Opp til 10% ytelse, når gjennomsnittet er 2 %, snakk om å være i benektelse.

 

Når AMD sine slides sier 2 - 10 %, men gjennomsnittet sier kun 2 %. Noen av de spillene som hadde størst økning med SAM var Borderlands 3, der var økningen 5.6 %, og Detroit become hitman som hadde en økning på 8.1 % i 1080p. Men de fleste spillene hadde en økning på 0-1 %, og med et gjennomsnitt på 2 % (med alle spill som var testet) så er det minimalt å hente på AMD sin SAM, dessverre. Det er en fin liten bonus, men ikke noe mer.

Vel hjelper det når referansekortet kostet 500 mer ved release enn hva 3080 gjorde?

Men hører mange snakker om drivere, og bare vent. Tror folk glemmer at også driverene på Ampere vil se forbedringer, og skal vi ta utgangspunkt i de siste årene har nvidia rykte for å ha bedre drivere de siste 2 generasjonene.

 

Jeg synes det er pussig at det er så mange i benektelse i tråden her. Ja 6800 XT innfrir virkelig, men alle benchmark viser tydelig at 3080 er bedre i 4k (selv uten DLSS), i tillegg til at Ampere har vesentlig bedre  RT ytelse. De som overser eller nekter for dette annser jeg som fanboy, punktum. Hater egenltig å bruke det ordet, men om man ikke kan se at 3080 gjør det bedre i 4K, eller i RT, så skal man være ganske biased.

Det må gå an å forholde seg til benchmark, vi er forbi spekulasjonsområdet, nå har vi faktisk ganske konkrete tall.

Holder på mitt, 6800 XT er konge på 1080p og 1440p uten RT. Om tredjepartskjølere ikke priser seg helt ut, så er nok 6800 XT et bedre kjøp enn 3080 for de som sitter med slik skjerm.

For de som sitter på 3440x1440 og høyere oppløsning, eller spiller spill som har RT eller DLSS er 3080 et klart bedre kjøp.

Da er vi enig for en gangs skyld,  6800xt>>3080 i det meste av 1080/1440 uten rts     3080 i alt 4k (utenom valhalla,dirt 5?)

Har selv en bestilling på 3080 tuf oc fra proshop siden prisen var 8250 den gang, fortsatt interessert i 6800 XT eller 6900 XT neste mnd.

  • Liker 1
Lenke til kommentar

Som jeg antok. Sjekket først nå. Har suksessivt gått litt opp i pris i forkant av BF + Cybermonday:

https://www.komplett.no/product/1151174/datautstyr/pc-komponenter/skjermkort/sapphire-radeon-rx-5600-xt-pulse

Kr 3749 :roll:

https://www.prisjakt.no/product.php?p=5263756

Spoiler

Prisjakt-historikk_pr_18nov2020.thumb.PNG.411876102a9ea933b56d5562bf3db172.PNG

Hva skal vi gjette at Black Friday el. Cyber Monday prisene hos Komplett lander på her da?

Kanskje kr 3290,- som er nære februar introduksjonsprisnivå eller kanskje de slår av en hundrings (kr 3190). Kjøpte mitt på lanseringsdato i januar da.

Endret av G
Lenke til kommentar
G skrev (5 minutter siden):

Som jeg antok. Sjekket først nå. Har suksessivt gått litt opp i pris i forkant av BF + Cybermonday:

Vær obs på at prisjakt manipulerer historikken. Jeg har flere ganger oppdaget at lave førpriser rett og slett har forsvunnet fra historikken sånn at det ser ut som prisen aldri har vært så lav før, selv om den har det.

  • Liker 1
  • Innsiktsfullt 1
Lenke til kommentar
3 minutes ago, Simen1 said:

Vær obs på at prisjakt manipulerer historikken. Jeg har flere ganger oppdaget at lave førpriser rett og slett har forsvunnet fra historikken sånn at det ser ut som prisen aldri har vært så lav før, selv om den har det.

Ja fikk mitt 5600XT til kr 3090,- Men det var også januarpris. Kan det hende at prisjakt ikke har fått med seg januar. Ser jo sånn ut iom. det står 1. februar der. Det spratt opp/la seg på opp 200 kroner like etter lansering (faktisk noe dyrere som grafen i spoiler i innlegget mitt ovenfor viser). Så prisjakt er helt korrekte for februar, det kan jeg sverge på.

Endret av G
Lenke til kommentar
unicorndeath skrev (1 time siden):

Lurer på hvem som snitcha opplysninger om big navis ytelse til Nvidia ?

Det må jo være en muldvarp i selskapet deres, Nvidia hadde neppe satt ned prisen sin så radikalt med 3080 om de ikke hadde vist noe på forhånd, normalt skulle de jo hatt en 12000 for sånne kort.

Nvidia senket egentlig ikke prisene, utenom 3070.

2070 lanserte til 599. 3070 lanserte til 499.

2080 lanserte til 699. 3080 lanserte til 699.

2080 ti kostet 1200 dollar. 3090 koster 1500 dollar. (3090 er en ti. Ikke en titan. Den bruker geforce-drivere (ikke titan-drivere) og har mindre ram enn forrige Turing Titan. Det er altså en ti uten ti-navnet).

Endret av Donkey Kong
  • Liker 1
Lenke til kommentar
Djevlen90 skrev (3 timer siden):

 De fleste kjøper neppe nåværende generasjon, men heller forrige generasjon. Ergo så er det nok mange som kommer til å kjøpe RTX20-serien og kanskje 5700XT eller lignende når de faller i pris som følge av at det har kommet ny hardware.

Pris på gammel maskinvare går generelt ikke ned, de går bare ut av produksjon. La meg gi noen eksempler:

i7-7700K, RTX 2080 Ti, Z370 Prime II, GTX 1070, i5-7640X,

Det har vært et unntak i nyere tid: LGA2066-prosessorer, disse fikk et kraftig priskutt etter at AMD lanserte Threadripper 3000-serien.

Frode789 skrev (1 time siden):

Det er bare tull. Svært overhauset problem. Du skal gjøre det svært mye før det blir reelt. Har hatt OLED i mange år og (uten at jeg er nevrotisk noia på å følge med på at ikke skjermen blir stående AFK pga. frykt for burn in). 

Han snakket ikke om burn-in, men om at de enkelte pikslene i OLED-display har en gitt levetid og blir svakere etter hvert som de blir brukt opp. Det er teknisk sett riktig, men du har helt rett i at det ikke er et reelt problem.

Lenke til kommentar
N o r e n g skrev (18 minutter siden):

Pris på gammel maskinvare går generelt ikke ned, de går bare ut av produksjon. La meg gi noen eksempler:

i7-7700K, RTX 2080 Ti, Z370 Prime II, GTX 1070, i5-7640X,

Det har vært et unntak i nyere tid: LGA2066-prosessorer, disse fikk et kraftig priskutt etter at AMD lanserte Threadripper 3000-serien.

Mange som kjøper brukt hardware og det var de jeg siktet til. Burde ha nevnt det i mitt innlegg.

Lenke til kommentar
1 minute ago, Djevlen90 said:

Mange som kjøper brukt hardware og det var de jeg siktet til. Burde ha nevnt det i mitt innlegg.

Ja, også finnes det enkelte type problemskjermkort blant ymse modeller. Husker Bryan mente at MSI 1050 er en gjenganger med problemer. Han har vel brukt varmluftpistolen på en del slike og vekket noe til live med varierende suksess.

  • Liker 1
Lenke til kommentar

Ser i Dirt 5 at 2080 Ti, 3080 og 6800 XT alle fikk ca 20% FPS drop med RT. Kan det være problemer med DXR optimalisering i andre titler siden 6800 XT gjør det generelt dårligere opp mot 3080?
Kan det ha noe med at fleste av dagens spill med DXR/RTX er Nvidia sponset?
Spennende å se om de får gjort noe med  Minecraft RTX, kanskje eneste spillet jeg kunne tenkt meg å spille med RT. 😄

Endret av PantZman
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...