Gå til innhold

Trenger råd til kjøp av skjermkort(!)


Anbefalte innlegg

Jeg har lyst å investere i Samsung sin CRG9 (ha det bra feriepenger!!). Jeg forstår det slik at denne monitoren trenger en god del hestekrefter for å kjøres på high/ultra-grafikk og for en generelt stabil opplevelse.

 

Jeg har allerede bestilt et 2070 Super da jeg tenkte at dette opprinnelig var nok for å kjøre dette beistet, men i følge youtube-videoer og tester ser det ut til at originale 2070 ligger på rundt 60(-) fps med høye innstillinger sammen denne spesifikke monitoren.

 

Kan du hjelpe meg å finne ut om jeg bør avbestille 2070 Super Duper og eller gå for 2080 Ti? *Må i tilfellet begynne å selge kroppsdeler*

 

Takk for eventuelle svar til et dumt spørsmål!

Endret av Sisto90
Lenke til kommentar
Videoannonse
Annonse

Tror nok 2080 TI eller NVIDIA Titan RTX er nødvendig hvis du skal ha alt på maks.

Selv 4k slite nok en del spill i 4k. Men du finner vel ut av det og har vel åpenkjøp?

 

Selv syns jeg det er litt bortkastet å bruke så mye penger på skjerm\gpu.

Forsto det når Første generasjon titan og full HD kom, da hadde man ikke noe valg.

Men slik det er i dag trenger vel man ikke det beste.

Lenke til kommentar

Markedet ligger desverre ikke i multi-GPU selv om det har begynt å bli ganske bra tilrettelagt for det nå. Enn så lenge lønner det seg å gå for top notch skjermkort for highres gaming. 1080p er ca 2 MP mens 5120x1440 er nesten 7,4 MP, så det krever 3,7x mer pixel-pushing power. Viktig med kjapp RAM når det begynner å bli såpass med realestate og tilsvarende textures. De veiene som er mest opptråkket gir laveste motstand.

 

Du kan jo alltids kjøre custom resolution og skalere det opp til fullskjerm. Det er jo det konsollene har gjort lenge uten at folk har tilta av den grunn. Det er jo mest for tekst og harde linjer det å ligge utenfor panel-oppløsning kan se vesentlig degradert ut. Det vistes jo også mye bedre før med lavere oppløsning og relativt store skjermer.

Endret av vidor
Lenke til kommentar

Det var det jeg var redd for... regner med at prisene ikke går ned med det første heller når det gjelder high-end gaming. Har veldig lyst å investere i denne skjermen, men fy søren det koster skjorta om man skal kjøre den greit(!)

 

ASUS 2080Ti: kr 12 790,-

Samsung CRG9: kr 13 990,-

Totalt: kr 26 780,-

 

Dette gjorde meg trist.

Lenke til kommentar

Hvis det er noen trøst så kjøper veldig mange på følelse og så kommer fornuften sigende etterpå sammen med detaljene.

 

4K oppløsning er 8,4 MP så du er ikke langt unna med hvor mye datakraft som trengs til det.

Buy once, cry once. Am I rite?

 

 

:’(

Lenke til kommentar

Jeg har lyst å investere i Samsung sin CRG9 (ha det bra feriepenger!!). Jeg forstår det slik at denne monitoren trenger en god del hestekrefter for å kjøres på high/ultra-grafikk og for en generelt stabil opplevelse.

 

Jeg har allerede bestilt et 2070 Super da jeg tenkte at dette opprinnelig var nok for å kjøre dette beistet, men i følge youtube-videoer og tester ser det ut til at originale 2070 ligger på rundt 60(-) fps med høye innstillinger sammen denne spesifikke monitoren.

 

Kan du hjelpe meg å finne ut om jeg bør avbestille 2070 Super Duper og eller gå for 2080 Ti? *Må i tilfellet begynne å selge kroppsdeler*

 

Takk for eventuelle svar til et dumt spørsmål!

 

Om du ikke vil blakke deg helt kan 5700XT være et alternativ. Da får du benyttet Freesync 2 i de titlene som støtter det. Men også en litt interessant sak som kommer med de nye AMD kortene "Radeon Image Sharpening". Der texturene går gjennom et skarphets filter slik at en lavere rendret oppløsning ser bedre ut på en høyere oppløst skjerm. Noen spill vil ha dette innbakt i motoren fremover, men for de som ikke har det, så kan man altså prøve seg frem med "RIS" i alle spill.

 

Hardware Unboxed kommer med en video på dette snart, og første inntrykket demmes var bra: "Selvsagt ikke like bra som native rendret, men mye bedre enn DLSS."...

Lenke til kommentar

Buy once, cry once. Am I rite?

 

 

:’(

 

Tja, det er som regel lurt å gå noen runder i tenkeboksen så ting passer høvelig bra sammen. Har stort sett hvert veldig fornøyd med det meste av HW jeg har kjøpt med den tilnærmingen. Impulskjøpene har ikke like høyt fornøyd-aspekt ved seg.

Endret av vidor
Lenke til kommentar

Om du ikke vil blakke deg helt kan 5700XT være et alternativ. Da får du benyttet Freesync 2 i de titlene som støtter det. Men også en litt interessant sak som kommer med de nye AMD kortene "Radeon Image Sharpening". Der texturene går gjennom et skarphets filter slik at en lavere rendret oppløsning ser bedre ut på en høyere oppløst skjerm. Noen spill vil ha dette innbakt i motoren fremover, men for de som ikke har det, så kan man altså prøve seg frem med "RIS" i alle spill.

 

Hardware Unboxed kommer med en video på dette snart, og første inntrykket demmes var bra: "Selvsagt ikke like bra som native rendret, men mye bedre enn DLSS."...

 

DLSS er vel bedre som konsept enn i praksis, selv om det er en forbedring. Virker som dette ble kastet inn i miksen ganske sent for å sukre pillen for å få kunder til å kjøpe et kort mye basert på hvor bra det kom til å bli langt fram i tid. Holder en knapp på at algoritmene stadig tunes og blir bedre slik som normal evolusjon av software gjerne innebærer. En klarte jo å skalere ned DGX til RTX og det er ikke en liten bragd.

 

Nvidia er jo flinke og har en god track-record, så det er jo ikke akkurat gate-svindel med iPhone bait-and-switch, men i retrospekt var vel lanseringen litt overselgende selv om serien definitivt har verdier.

Endret av vidor
Lenke til kommentar

Disse skjermkort gpu er bra til 4k skjerm (8 294 400 pixels) og 5120x1440 (7 372 800 pixels, 88% av 4k)

(ca 60 fps eller bedre avhengig av grafikk innstillinger)

Virker meget bra på 3840x1080 (50% av 4k) (120fps)

RX 5700 XT (mest for pengene)

RTX 2070 Super

AMD Radeon VII (føles utdatert i forhold til de andre her)

Nvidia RTX 2080 (litt bedre enn 2070 Super)

 

Denne er meget bra til 4k skjerm:

Nvidia RTX 2080 Ti

 

Konklusjon det holder helt fint med RTX 2070 Super som du har bestilt til den skjermen. Best å kjøre med 3840x1080 eller 3440x1440 oppløsning som kanskje hadde vist best med en skjerm med den oppløsningen. 5700XT er trolig det beste kjøpet nå snart når 3-parts kjøleløsninger kommer. Men 2070 Super og 2080 har litt høyere ytelse.

Endret av Svein M
Lenke til kommentar

Snakker om "sola"... :p

 

AMD er enormt mye bedre fordi dem er mye mer spesifikke på hva dem gjør basert på bildeinformasjonen. Kudos for å klare dette bedre enn DLSS til og med på generelt grunnlag. DLSS er nok for lite detaljert i hvordan den koker ned modellen sin pr spill (ca 120+ MB trent DGX neural network modell pr spill), men tror nok absolutt dette kan bli bedre over tid så lenge Nvidia er på ballen, men AMD stikker av med kaka mht scaling pr nå i alle fall.

Lenke til kommentar

AMD er enormt mye bedre fordi dem er mye mer spesifikke på hva dem gjør basert på bildeinformasjonen. Kudos for å klare dette bedre enn DLSS til og med på generelt grunnlag. DLSS er nok for lite detaljert i hvordan den koker ned modellen sin pr spill (ca 120+ MB trent DGX neural network modell pr spill), men tror nok absolutt dette kan bli bedre over tid så lenge Nvidia er på ballen, men AMD stikker av med kaka mht scaling pr nå i alle fall.

 

Vel, slik jeg ser det så er det nå et åpenbart problem med DLSS i utvikler tid. Skal utvikleren sitte med et ferdig spill og si nei takk til inntekter på det spillet mens de venter uker, kanskje til og med måneder på at DLSS skal bli godt nok "trent"? I eksemplene i videoen til HWUB bruker han jo spill som har vært ute en stund allerede, og der "treningen" strengt tatt burde være over for lenge siden, likevel blir det slått av et "enkelt" skarphets filter! Det kan da ikke være slik at man skal sitte og vente med å spille et spill til et år eller to etter at det ble lansert, fordi; kan endelig skjermkortet mitt klare jobben med DLSS skrudd på, uten at bildet ser forferdelig ut? Nei, DLSS trenger en revolusjon, ellers var dette forhåpentligvis siste spiker i den kista...

Lenke til kommentar

DLSS burde i alle fall ha en edge her, men en kan vel si software ikke har nådd potensialet til teknikken. Måten de bygger modellen på bør vel gjøres med en annen parameter-base enn nå. Med tanke på hvordan nevrale nett fungerer burde dette fungere om det gjøres riktig.

 

Blir interessant å se på hva Nvidia svarer med. Begrave DLSS er jo en opsjon p.g.a skuffende resultater i forhold til hvor mye resurser det krever. Det gjenstår jo å se om RT og Tensor er feilsteg, men jeg tenker dette fremdeles har potensiale, men krever mye. Litt som å omstille seg til multithreading med quadcore vs singlecore på CPU i sin tid.

Endret av vidor
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...