Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

NVIDIA GeForce RTX 30xx tråden


Nizzen
Melding lagt til av Jarmo

Vennligst ikke ta AMD vs. Intel diskusjoner i denne tråden :)

Anbefalte innlegg

Theo343 skrev (1 minutt siden):

Selvsagt.

Vil du ha HDR og betale såpass mye for det så er jo det et av dine kriterier. For egen del har jeg sjelden lysstyrken på min skjerm over 63 av 100.  I 3840x1600 skal du også ha et rimelig bra skjermkort om du liker eyecandy for å ligge særlig høyere enn 144FPS, selv om det ikke er umulig.

For meg er 120FPS mer enn nok så en 144 skjerm er helt innafor. Men har du krav om høyere og vil betale for det og kanskje spiller i lavere oppløsning og typisk CPU bound så er det annerledes.

 

Langt i fra noe dårlig kjøp. Hva forårsaket prisøkoning på 10k? ?

Nå har jeg prøvd en del spill både med ray tracing og HDR. Personlig mener jeg HDR er et større fremskritt enn ray tracing. HDR gir ikke bare sterkere brightness, HDR gir bedre detaljer i mørke og lyse områder, bredere fargespekter, og større brightness på highlights, så det blir ikke som å spille på en skjerm med maks brightness. Det er en misoppfatning.

Personlig kjøpte jeg X35 fordi jeg fikk den billig, og trodde egentlig ikke at HDR hadde hatt så mye å si. Men etter å ha hatt monitoren i 8 mnd så synes jeg faktisk HDR er det som gir mest verdi, og hadde nok ikke hatt noe problem med å betale full pris og 10K ekstra en skjerm i dag dersom den har skikkelig HDR. At skjermen har 200hz er egentlig ikke det viktigste, mer en bonus, typ kjekt å ha.

Theo343 skrev (5 minutter siden):

Selvsagt.

Vil du ha HDR og betale såpass mye for det så er jo det et av dine kriterier. For egen del har jeg sjelden lysstyrken på min skjerm over 63 av 100.  I 3840x1600 skal du også ha et rimelig bra skjermkort om du liker eyecandy for å ligge særlig høyere enn 144FPS, selv om det ikke er umulig.

For meg er 120FPS mer enn nok så en 144 skjerm er helt innafor. Men har du krav om høyere og vil betale for det og kanskje spiller i lavere oppløsning og typisk CPU bound så er det annerledes.

 

Langt i fra noe dårlig kjøp. Hva forårsaket prisøkoning på 10k? ?

Tror X35 er ute av produksjon, og regner vel med at Acer vil slippe X35P, eventuelt. Eller så kan det være på grunn av korona at de ikke har klart å holde produksjonen oppe. Derfor ble de iværtfall solgt ut hos komplett for den prisen for 2 mnd siden. Selv fikk jeg rabatt hos komplett da jeg kjøpte skjermen i Januar.

Lenke til kommentar
Videoannonse
Annonse
Datafriken skrev (2 minutter siden):

LG38WN95C-W er jo none gamer versjonen her har du samme skjerm i "gaming" som kan OC til 160hz da ?

 

https://www.proshop.no/Skjermer/LG-38-Skjermer-UltraGear-38GN950-Svart-1-ms-NVIDIA-G-Sync-Compatible/2864441

Står 175Hz OC faktisk :) Den synes jeg ser ut som et bra kjøp. Jeg velger glatt g-sync compatible framfor g-sync da jeg slipper å bli låst til Nvidia i lang tid.

Lenke til kommentar
6 minutes ago, Datafriken said:

LG38WN95C-W er jo none gamer versjonen her har du samme skjerm i "gaming" som kan OC til 160hz da ?

 

https://www.proshop.no/Skjermer/LG-38-Skjermer-UltraGear-38GN950-Svart-1-ms-NVIDIA-G-Sync-Compatible/2864441

Eller denne som jeg egentlig hadde i tankene mens vi snakket om en annen ? 
https://www.prisjakt.no/product.php?p=5083511

Men Gsync vs Gsync compat. er jo opp til hva man selv ønsker. Jeg synes begge er gode alternativer og har fulgt de alle siden specsa begynte å lekke på rtings og hdpanels.

Den over er den jeg har hatt på handlelista en stund men jeg kommer til å se på hva Nvidia gjør 1. september før jeg bestemmer meg for ny skjerm fremover.

Endret av Theo343
Lenke til kommentar
Cowboystrekk skrev (Akkurat nå):

Står 175Hz OC faktisk :) Den synes jeg ser ut som et bra kjøp. Jeg velger glatt g-sync compatible framfor g-sync da jeg slipper å bli låst til Nvidia i lang tid.

G-sync kompatibel funker dårlig, og ville lett valg g-sync som fungerer problemfritt. 

Heller ingen fare for å låse seg til nVidia, da AMD alltid konkurrerer med forrige generasjon nVidia (fremfor nåværende), fordi AMD er så på etterslep ? 

Lenke til kommentar
Just now, Emile the rat said:

G-sync kompatibel funker dårlig, og ville lett valg g-sync som fungerer problemfritt. 

Heller ingen fare for å låse seg til nVidia, da AMD alltid konkurrerer med forrige generasjon nVidia (fremfor nåværende), fordi AMD er så på etterslep ? 

Prisen er faren... du låser deg til å kjøpe mulig svindyre kort. Men det gjenstår å se hva Nvidia gjør nå.

Lenke til kommentar
7 hours ago, Theo343 said:

Haha samme her. Vi tilhører generasjonen som i semi-voksen alder opplevde de første 3D aksellerator korta man installerte i tillegg til skjermkortet og senere når alt ble integrert på skjermkortet, gledet oss til det neste Voodoo kortet fra 3dfx som jo er mye av årsaken til Nvidia suksessen. Det var helt rått når jeg fikk ett nytt ATi skjermkort på min Cyrix baserte PC i 94 med innebygd MPEG2 aksellerator (ikke 3D aksellerator, var da eget kort) så jeg kunne se på enkelte mpeg filer uten særlig hakking eller 100% last på CPU. Tror jeg så samme Toronto turist-PR mpeg fila på 20 minutter ca. 50 ganger.

Doom og Quake på coax ring var ikke så ille det.

Du høres kanskje eldre ut enn meg. Men min første PC skjedde også i 1994. Men kjøpte ferdigbygget første gang og har aldri kjøpt ferdigbygget siden, unntak for laptop da.

Lenke til kommentar
Quote

Nå har jeg prøvd en del spill både med ray tracing og HDR. Personlig mener jeg HDR er et større fremskritt enn ray tracing. HDR gir ikke bare sterkere brightness, HDR gir bedre detaljer i mørke og lyse områder, bredere fargespekter, og større brightness på highlights, så det blir ikke som å spille på en skjerm med maks brightness. Det er en misoppfatning.

Det var du som fremhevet maks Nits som et poeng, ergo ingen misoppfatning. HDR vet jeg godt hva er og verdsetter det stort på TV når jeg ser på film. Ergo har jeg alltid hatt Plasma og OLED der jeg ser film (ang. detaljer i mørke områder).

Endret av Theo343
Lenke til kommentar
Emile the rat skrev (1 minutt siden):

G-sync kompatibel funker dårlig, og ville lett valg g-sync som fungerer problemfritt. 

Heller ingen fare for å låse seg til nVidia, da AMD alltid konkurrerer med forrige generasjon nVidia (fremfor nåværende), fordi AMD er så på etterslep ? 

Nja, nå har jo Nvidia nylig sertifisert en haug med skjermer. Flere med 240Hz og hvor de garanterer at det ikke skal være flickering, ghosting etc. Mange handler ut ifra pris vs ytelse og der ligger AMD et godt stykke foran Nvidia med både 5700XT vs 2070, 5700 og 5600XT vs 2060.

Lenke til kommentar
10 minutes ago, G said:

Du høres kanskje eldre ut enn meg. Men min første PC skjedde også i 1994. Men kjøpte ferdigbygget første gang og har aldri kjøpt ferdigbygget siden, unntak for laptop da.

Jeg har faktisk aldri noensinne eid eller hatt en ferdigbygget PC hjemme innenfor dørene mine. Jeg har hatt arbeidsgivere som har villet kaste både compaq, ibm, dell og lenovo etter meg med "vil du ikke ha en kontorpc hjemme da?" men det har aldri fristet - aldri! Med mindre de kunne kjøpe et stort hus til meg samtidig så jeg kunne gjemt den på et eget kontor.

Skal jeg ha noe annet enn en laptop hjemme skal det bygges selv med utvalgte komponenter.

Endret av Theo343
  • Innsiktsfullt 1
Lenke til kommentar
Theo343 skrev (2 minutter siden):

Prisen er faren... du låser deg til å kjøpe mulig svindyre kort. Men det gjenstår å se hva Nvidia gjør nå.

Er det for dyrt, kjøper du bare forrige generasjon. 

AMD har aldri priset seg lavere enn nvidia, så pris er ingen argument. AMD vil aldri selger billigere enn nVidia når de ser at de kan tjene like mye ;) Det hadde bare vært dårlig business, etterspørsel bestemmer prisene, og etterspørselen er der uavhengig hva enkelt personer tar seg råd til :) 

Lenke til kommentar

  

7 hours ago, Theo343 said:

Min første IBM kompatible PC fikk jeg som 24 år. Før det var det alltid jobbpc, skolepc eller commodore og amiga.

Fikk aldri tatt meg råd til Amiga. Så hoppet og oppholdet mellom Commodore 64-gaming og første Pentium 60 Mhz med FDIV-buggen var noen år. Satan det var en dyr PC, men interessen var der jo da, som forsvarte investeringen.

Et par tre år etterpå så tror jeg det ville kostet ca. kr 3 tusen å oppgradere i fra 2 Megabyte RAM :p til 8 Megabyte RAM. Selvfølgelig så gjorde jeg jo også nettopp det :lol:

I 1997 så forfrisket jeg også denne PC med en 133 Mhz Pentium :laugh: Men da måtte jo både hovedkort, RAM og CPU ut av den gamle kassen.

Kjøpte selvsagt ikke kremen av kremen, som den gang i 1994 på x86 var 66 Mhz Pentium og i 1997 så tror jeg det var snakk om maks. 200 Mhz Intel Pentium. Neste hopp skjedde vel ikke før et par-tre år etter hvor jeg hoppet på 600 Mhz Duron tror jeg det var snakk om (et AMD produkt).

I mellomtiden (eller var det i ettertiden), så hadde Intel lekt seg med innstikkskort type CPU, som de siden gikk vekk i fra igjen. Pentium 4 fikk jeg ikke før etter 2010 en gang (fra en skrot-PC), men husker at det var stor ståhei og jubel over dens muskler første gang det kom til markedet. Ble nok manges sliter den der for Intel fanboysene. Var AMD fanboy pga. lommebok da. Pentium 4 kostet sykt mye. Google "pentium 4 launch price", uansett så var det ikke verdt pengene der og da ihvertfall for min del.

Endret av G
Lenke til kommentar
Cowboystrekk skrev (Akkurat nå):

Nja, nå har jo Nvidia nylig sertifisert en haug med skjermer. Flere med 240Hz og hvor de garanterer at det ikke skal være flickering, ghosting etc. Mange handler ut ifra pris vs ytelse og der ligger AMD et godt stykke foran Nvidia med både 5700XT vs 2070, 5700 og 5600XT vs 2060.

Garantert, g-sync kompatible skjermer har ikke gått gjennom 300 kvalitetstester slik som skjermene med g-sync modul.

G-sync kompatibel er en freesync skjerm som kun har vært teste av nVidia for å se at den kjører med nVidia skjermkort. Det er i teorien ingen forskjell på freesync og g-sync kompatibel. 

Vi kan jo diskutere odyssey serien til Samsung, som er g-sync kompatibel, flickering som et uvær med nVidia skjermkort ;) 

AMD godt stykke foran nVidia, nå måtte jeg le. Tror vi slutter diskusjonen der, opprett heller din egen AMD tråd du.

 

Lenke til kommentar
Emile the rat skrev (1 minutt siden):

Er det for dyrt, kjøper du bare forrige generasjon. 

AMD har aldri priset seg lavere enn nvidia, så pris er ingen argument. AMD vil aldri selger billigere enn nVidia når de ser at de kan tjene like mye ;) Det hadde bare vært dårlig business, etterspørsel bestemmer prisene, og etterspørselen er der uavhengig hva enkelt personer tar seg råd til :) 

Med både Polaris, Vega og Navi har  jo AMD prisa seg under tilsvarende fra Nvidia (med noen få unntak som Vega 64 LC og 5500XT) nettopp fordi Nvidia er storebror og selger 4 ganger så mange kort. 

Lenke til kommentar
Emile the rat skrev (1 minutt siden):

Garantert, g-sync kompatible skjermer har ikke gått gjennom 300 kvalitetstester slik som skjermene med g-sync modul.

G-sync kompatibel er en freesync skjerm som kun har vært teste av nVidia for å se at den kjører med nVidia skjermkort. Det er i teorien ingen forskjell på freesync og g-sync kompatibel. 

Vi kan jo diskutere odyssey serien til Samsung, som er g-sync kompatibel, flickering som et uvær med nVidia skjermkort ;) 

AMD godt stykke foran nVidia, nå måtte jeg le. Tror vi slutter diskusjonen der, opprett heller din egen AMD tråd du.

 

Har lest at enkelte modeller sliter, men at de jevnt over greier seg bra. Har slitt endel med G-sync og 1070, riktignok bærbar uten modul, men slet stadig med at AS ikke virka i en rekke spill på mange drivere. 

Er det noe å diskutere at både 5600XT og 5700 yter bedre enn 2060 eller at 5700XT yter bedre enn 2070 i gjennomsnitt? Ja, RT er en mangel om det er viktig, men på pris vs ytelse vinner AMD lett. 

Lenke til kommentar
8 minutes ago, Cowboystrekk said:

Med både Polaris, Vega og Navi har  jo AMD prisa seg under tilsvarende fra Nvidia (med noen få unntak som Vega 64 LC og 5500XT) nettopp fordi Nvidia er storebror og selger 4 ganger så mange kort. 

De priser seg under nvidia fordi dem har et dårligere produkt.

Missforstå meg rett; 5700xt er et bra kort, men for de aller fleste er 2070 super lett verdt litt ekstra som en mye mer komplett pakke.

RTX, dlss, Freestyle, Ansel, Nvenc etc

I tillegg er softwaren til AMD er jo et mareritt og driverene er dårligere 

Endret av Mumriken
  • Liker 1
Lenke til kommentar
7 hours ago, Cowboystrekk said:

Dollarkursen er uvanlig lav nå, det lover i det minste bra :)

Forventer ikke at det skal vare evig. Nå har jo folk hatt ferien sin, og kanskje det var derfor dollaren falt vs. kronen, eller ved tilfeldigheter. Uansett så har jo Norge som mål å holde kronen relativt lav i verdi for å få solgt oljen sin.

Endret av G
Lenke til kommentar
Cowboystrekk skrev (4 minutter siden):

Har lest at enkelte modeller sliter, men at de jevnt over greier seg bra. Har slitt endel med G-sync og 1070, riktignok bærbar uten modul, men slet stadig med at AS ikke virka i en rekke spill på mange drivere. 

Er det noe å diskutere at både 5600XT og 5700 yter bedre enn 2060 eller at 5700XT yter bedre enn 2070 i gjennomsnitt? Ja, RT er en mangel om det er viktig, men på pris vs ytelse vinner AMD lett. 

G-sync uten modul, er freesync. 

Da kan du ikke klage på problemer med g-sync, når du ikke engang har brukt skikkelig g-sync.

Jevnt over er Odyssey et eksempel på begrenset freesync er, spesielt på høyere refresh rates. De skjermene fungerer ikke på 240hz med freesync, det problemet ville man ikke fått med g-sync. Du kan si hva du vil, men det er et faktum. 

Liker at du sammenligner XT serien med turing kortene som kom 6 mnd før, derfor vi fikk super-serien. De klokker høyere, i tillegg til støtte for dlss. Ergo, AMD kommer dårligst ut. I toppsjiktet derimot har ikke AMD noe å stille opp med.

Endret av Emile the rat
Lenke til kommentar
7 hours ago, Theo343 said:

Sant, men om det koster over 12.000,- for et 3080Ti (14k absolutt smertegrense for hva jeg gidder å betale) så er det no-go uansett. Da blir mitt Aorus 1080Ti stående en stund til.

Men uansett, gøy å være litt stoked over GPU igjen :D

Et kort med 24GB videominne kommer ikke inn i riggen min før det kan gi en betraktelig gamingforbedring. 50-70% av videominnet i 1080Ti kortet mitt har vært på en evig ferie selv i 3840x1600 med ultratexturer så langt det går.

I 1994 så var ATI med 2 Megabyte / 4 Megabyte VRAM storveis :lol:

Husker at 4 Megabyte var sykt dyrt. Husker at andre på min alder gikk for EIDE VESA innstikkskort på kanskje 1 Megabyte videoram for GPU, når jeg eksperimenterte med det nye PCI-grensesnittet.

Endret av G
Lenke til kommentar

Ellers når det gjelder HDR. Man trenger ikke nødvendigvis en "HDR" skjerm for å få et godt fargespekter og det er "desverre" mange HDR standarder. Personlig liker jeg Dolby Vision godt på LG C9.

En skjerm med et godt panel, gode kontrastverdier, bra lysstyrke og "wide color gamut" etc. kan gjøre mye med/for opplevelsen selv om det ikke nødvendigvis er standarisert innenfor HDR.

Quote

RGB and sRGB
RGB standard, referred to as ITU-R Recommendation BT 709 or Rec 709 [2], was approved in 1990. RGB only covers 33.2% of the chromaticities of the CIE 1976 u’v’ diagram. sRGB standard was created in 1996 and uses the same primaries and white point as Rec 709. This is the most common color gamut used for consumer electronics products. This color gamut is still quite narrow and only covers 38.7% of the CIE 1976 u’v’ chromaticities.

DCI-P3
The DCI-P3 [3] color space released in 2007 uses the same blue primary as the Rec 709 and sRGB color spaces, but it employs different green and red primaries. The red primary of DCI-P3 is monochromatic 615 nm and green primary is a slightly more yellowish hue of green, but more saturated. DCI-P3 is 26% larger than sRGB gamut and it covers 41.7% of CIE 1976 chromaticity diagram.

BT 2020
ITU-R Recommendation BT 2020, or Rec 2020 for short, establishes the widest display color gamut, requiring monochromatic RGB primaries (467 nm, 532 nm, and 630 nm). This color gamut is extremely wide – it is 72% larger than sRGB and 37% larger than DCI-P3. The resulting color space covers 57.2% of CIE 1976 chromaticity diagram.

Rec 2020 colorimetry adoption continues to grow, however, compliance needs more clear definition as 100% of this color space is not physically achievable. At this point, only few displays have come close to providing Rec 2020 color space.

In LCD panels, only quantum dot (QD) technology offers tunable primaries making optimizing for BT 2020 color gamut possible. The unique properties of quantum dots enable us to generate spectrally narrow primaries with full width at half maximum (FWHM) [4] of 30-54 nm based on quantum dots type, resulting in the widest color gamut coverage possible.


Windows 10 har vel fortsatt problemer og utfordringer med HDR?

Endret av Theo343
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...