Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

Hvor mye kommer du til å bruke på ditt nye skjermkort og hvorfor? Amd / Nvidia?


Hvor dyrt blir ditt neste skjermkort? Amd eller Nvidia?  

197 stemmer

  1. 1. Hvor mange kroner kommer du til å bruke på ditt /dine neste skjermkort?

    • Opp til 500 Kroner.
      1
    • 500 - 1000 Kroner.
      1
    • 1000 - 2000 Kroner.
      7
    • 2000 - 3000 Kroner.
      31
    • 3000 - 4000 Kroner.
      43
    • 4000 - 5000 Kroner.
      24
    • 5000 - 7500 Kroner.
      50
    • 7500 - 10.000 Kroner.
      23
    • Ingen øvre grense...
      17
  2. 2. Amd eller Nvidia?

    • Nvidia.
      87
    • Amd.
      25
    • Det kortet som gir best mulig ytelse for pengene innenfor budsjettet mitt ovenfor.
      85
  3. 3. Er du en Fanboy?

    • Nei.
      178
    • Ja.
      19


Anbefalte innlegg

Videoannonse
Annonse

Det var en spøk, du har selvsagt brukt G-Sync korrekt (forhåpentligvis :p). Men du har kanskje ikke brukt det til riktig formål, altså "feil". :)

 

Selv ser jeg ikke stor forskjell (om noen) fra 110fps til 144fps på min ROG Swift. Men når det bikker under ~80fps så opplever jeg det som litt hakkete bilde, og selv med G-Sync så liker jeg ikke å komme ned i ~60-70fps i enkelte spill. Om jeg hadde en 120Hz skjerm, og aldri spilte noen spill som ga meg minimum fps under 120. Så ville altså 144Hz G-Sync sannsynligvis vært veldig bortkastet på meg. Men i det området der jeg merker forskjell, ville en skjerm med fast oppdateringsfrekvens vært en god del verre å bruke.

 

For mange som spiller stort sett bare FPS multiplayer. Så er målet så høy fps som mulig, helst langt over 144fps. I dette området over 144fps jobber ikke skjermen som en G-Sync skjerm lenger. Den oppfører seg som en helt normal 144Hz skjerm. Hva skal man med G-Sync da? Og om man ikke ser forskjell på ~100fps/Hz og 144fps/Hz Mens skjermkortet leverer ~120fps til en G-Sync skjerm. Hva skal man med det? Man ville fått en nesten like god opplevelse ved å sette en vanlig skjerm til 100Hz. I disse tilfellene er åpenbart en G-Sync skjerm ikke noen natt og dag opplevelse.

 

Men når vi alle har forskjellig syn, så er det greit med en skjerm som kan tilpasse seg alle, uten at man må sette oppdateringsfrekvensen manuelt. For meg kan jeg for eksempel sikte meg inn på et detaljnivå som gir ~90fps+ og nyte det jeg opplever som mer eller mindre flytende bevegelser. Og altså detaljnivået så høyt som overhodet mulig innenfor denne rammen. Med en skjerm uten G-Sync ville jeg måttet gått ned på detaljnivået, og satt en custom resolution på ~85Hz og siktet meg inn på ~100fps i gjennomsnitt. G-Sync gir meg rett og slett mer valutta for pengene jeg har lagt i skjermkortene mine. Noe jeg er svært glad for nå som de ble "verdiløse" over natten. ;)

Lenke til kommentar

Har noe problemer å sette DSR?

 

Da dette skjer med en av pcene mine med GTX Titan SLI.

Men har jeg en annen pc det funger å sette DSR men bildekvaliteten blir helt likt og antak frames\s så vet ikke om den funksjonen ikke funger slik 4k bildekvaliteten blir helt likt, så vet ikke man må ha GTX 980 TI eller nyere for å få det å fungere, reinstallere drivere hjelper lite.

 

gtx_titan_feil.png

Endret av LMH1
Lenke til kommentar

Det var en spøk, du har selvsagt brukt G-Sync korrekt (forhåpentligvis :p). Men du har kanskje ikke brukt det til riktig formål, altså "feil". :)

 

Selv ser jeg ikke stor forskjell (om noen) fra 110fps til 144fps på min ROG Swift. Men når det bikker under ~80fps så opplever jeg det som litt hakkete bilde, og selv med G-Sync så liker jeg ikke å komme ned i ~60-70fps i enkelte spill. Om jeg hadde en 120Hz skjerm, og aldri spilte noen spill som ga meg minimum fps under 120. Så ville altså 144Hz G-Sync sannsynligvis vært veldig bortkastet på meg. Men i det området der jeg merker forskjell, ville en skjerm med fast oppdateringsfrekvens vært en god del verre å bruke.

 

For mange som spiller stort sett bare FPS multiplayer. Så er målet så høy fps som mulig, helst langt over 144fps. I dette området over 144fps jobber ikke skjermen som en G-Sync skjerm lenger. Den oppfører seg som en helt normal 144Hz skjerm. Hva skal man med G-Sync da? Og om man ikke ser forskjell på ~100fps/Hz og 144fps/Hz Mens skjermkortet leverer ~120fps til en G-Sync skjerm. Hva skal man med det? Man ville fått en nesten like god opplevelse ved å sette en vanlig skjerm til 100Hz. I disse tilfellene er åpenbart en G-Sync skjerm ikke noen natt og dag opplevelse.

 

Men når vi alle har forskjellig syn, så er det greit med en skjerm som kan tilpasse seg alle, uten at man må sette oppdateringsfrekvensen manuelt. For meg kan jeg for eksempel sikte meg inn på et detaljnivå som gir ~90fps+ og nyte det jeg opplever som mer eller mindre flytende bevegelser. Og altså detaljnivået så høyt som overhodet mulig innenfor denne rammen. Med en skjerm uten G-Sync ville jeg måttet gått ned på detaljnivået, og satt en custom resolution på ~85Hz og siktet meg inn på ~100fps i gjennomsnitt. G-Sync gir meg rett og slett mer valutta for pengene jeg har lagt i skjermkortene mine. Noe jeg er svært glad for nå som de ble "verdiløse" over natten. ;)

Vel der har du mange gode poeng :)

Men det er fremdeles ikke verdt å betale 7K for Asus pg278Q når man får samme skjermen med freesync for 3400kr. Det er en ganske drøy forskjell, som viser at Nvidia må få konkurranse, slik at prisene kan være litt rimelige. Det sier også at vi har fått et "billigpanel" på den skjermen, siden under halvparten av den totale kostnaden gikk til panelet, mens derimot over halvparten gikk til g-sync modulen alene.

Det må jo være innafor å kalle det rip-off ^^,

Lenke til kommentar

Jeg har sett på prisene på FreeSync vs G-Sync skjermer en stund nå. Og på meg virker det som at FreeSync skjermene faktisk kanskje har presset prisene på G-Sync litt den siste tiden. Eller så har FreeSync skjermene steget..

 

Hvis vi ser på AOCs FreeSync og G-Sync versjon av denne skjermen. Så ser vi at G-Sync versjonen er ~1500Kr dyrere enn FreeSync versjonen. Og at FreeSync versjonen faktisk er litt billigere enn versjonen uten noen form for adaptive sync. Det tolker jeg som en indikasjon på at FreeSync versjonen er populær nok til at det er litt konkurranse på den. G-Sync versjonen er den billigste G-Sync skjermen man kan få kjøpt. Mens FreeSync skjermer med dårligere spesifikasjoner kan fås helt ned i ~1500Kr.

 

I dette innstegs segmentet er det klart at G-Sync modul og lisensierings kostnader er en stor del av kostnaden på skjermene.

 

Men går vi opp til 1440p skjermene så ser vi at billigste 144Hz FreeSync skjerm koster ~4900Kr, mens billigste G-Sync skjerm med tilsvarende spesifikasjoner er under 500Kr dyrere. Så med mindre man MÅ ha Asus versjonen PG278Q som er ~2100Kr dyrere enn FreeSync versjonen. Så trenger ikke G-Sync være så vannvittig mye dyrere lenger.

 

I det dyreste segmentet som 21:9 skjermene, har vi sett G-Sync skjermen X34 bli ganske populær. FreeSync versjonen var faktisk på markedet lenge før G-Sync versjonen. Men den kunne bare gå opp til 75Hz. Nå som Acer har laget en 100Hz versjon av FreeSync skjermen også. Så ser vi at det trenger ikke skille mer enn ~500Kr også her.

 

Pris argumentet for FreeSync synes jeg fremdeles er svært viktig i den billigste enden av skalaen. Men litt lenger opp ser det ikke lenger ut som det trenger være så veldig stor forskjell..

Lenke til kommentar

Er ikke A-sync det samme som freesync? Eller hva er det? Ser komplett har en 1080P A-sync mg278Q til 3390.

 

Er du sikker på du ikke tenker på MG248Q? Det er en 1080p 24" skjerm.. ;)

 

PG248Q er annonsert, men den G-Sync skjermen går opp til 180Hz, så den kan uansett egentlig ikke sammenliknes direkte mot MG248Q. Men om MG248Q bruker samme panel, så åpner det for muligheten til å overklokke FreeSync skjermene til samme hastighet.

 

"Adaptive sync" er funksjonen som AMD foreslo innlemmet i DP? standarden. VESA har lagt den til som en opsjons funksjon. Så selv om den ligger i standarden, så er ikke produsenter av f.eks. skjermer med DP1.3 port forpliktet til å ta med denne funksjonen.

 

Men når de gjør det, så må de enten kontakte Nvidia og kjøpe fra dem en G-Sync modul til hver skjerm, og betale en lisensierings kostnad.

 

Eller de kan gratis laste ned spesifikkasjonen på FreeSync fra AMD, og bestille en scaler chip fra hvem de vil, så lenge den støtter DP1.3 med "adaptive sync". Og så klatte et "FreeSync" klistremerke på skjermen før de sender den ut fra fabrikken.

 

FreeSync og G-Sync er altså bare 2 forskjellige måter å benytte "adaptive sync" funksjonen på..

Endret av Gabri3L
Lenke til kommentar

Tror rx 480 blir et knallkjøp da jeg tipper vi står ovenfor et generasjonskifte i GPUer, og vi kommer til å se skjermkort innen kort (høhø) tid som vil dytte nåværende flagskip av tronen.

 

Tror dette er feil tidspunkt å bruke veldig mye penger på et skjermkort.

  • Liker 2
Lenke til kommentar

Samme trodde\håpet jeg, men i følge andre på forumet vil dette neppe skje sammen AMD Zen mot neste år.

kanskje R9 490x sammen med AMD Zen kan konkureres mot GTX 1080 og intel skylake.

 

For de som orker å vente kan man bare vente. Men ferreste ønsker det.

Endret av LMH1
Lenke til kommentar

Samme trodde\håpet jeg, men i følge andre på forumet vil dette neppe skje sammen AMD Zen mot neste år.

kanskje R9 490x sammen med AMD Zen kan konkureres mot GTX 1080 og intel skylake.

 

For de som orker å vente kan man bare vente. Men ferreste ønsker det.

Grenser jo mot å høres ut som en fanboy her :D

 

AMD viser vel frem de nye skjermkortene sine med Intel cpuer.

Har veldig troen på ZEN og håper den vil kunne gi mer konkurranse i CPU markedet.

Er faktisk redd for at AMD ligger for bra an på skjermkort fronten for øyeblikket da det mest optimale for oss forbrukere vil være en konkurranse situasjon på lang sikt.

Lenke til kommentar

 

Grenser jo mot å høres ut som en fanboy her

Det er jeg ikke, selv om har 3 stk GTX titan. Selv om jeg kanskje er spill Fanboy, da jeg ikke hadde overlevd på intel skjermkort. intel Knights Landing GPU blir nok for dyrt for spilling.

Kjøpt 2 brukt, for å kunne spille.

Kunne godt kjøpt AMD hvis de hadde skjermkort, som er bedre egnet en konsoll alternativ.

da R9 490x er noe stiv priset og ikke gir ytelsen man håper AMD Nano er vel dyr alternativ for GTX 970 Mini.

 

Så hvis AMD lever bedre skjermkort slik de var i ledelsen med HD 7970 kan jeg godt gå for AMD.

Men i dag er det kun konsoll (PS4\Xbox one) AMD har skjermkort der ikke nvidia har noe.

 

Syns konsoller burde fått Nvidia 1080M kanskje jeg kunne kjøpt PS4 hvis de hadde det.

Endret av LMH1
Lenke til kommentar

 

 

Grenser jo mot å høres ut som en fanboy her

Det er jeg ikke, selv om har 3 stk GTX titan. Selv om jeg kanskje er spill Fanboy, da jeg ikke hadde overlevd på intel skjermkort. intel Knights Landing GPU blir nok for dyrt for spilling.

Kjøpt 2 brukt, for å kunne spille.

Kunne godt kjøpt AMD hvis de hadde skjermkort, som er bedre egnet en konsoll alternativ.

da R9 490x er noe stiv priset og ikke gir ytelsen man håper AMD Nano er vel dyr alternativ for GTX 970 Mini.

 

Så hvis AMD lever bedre skjermkort slik de var i ledelsen med HD 7970 kan jeg godt gå for AMD.

Men i dag er det kun konsoll (PS4\Xbox one) AMD har skjermkort der ikke nvidia har noe.

 

Syns konsoller burde fått Nvidia 1080M kanskje jeg kunne kjøpt PS4 hvis de hadde det.

 

Ser ikke ut til at NVIDIA eller Intel vil kunne konkurere med AMD på console fronten.

 

Det AMD kommer til å kunne levere i første omgang er jo pris/ytelse, og godt optimaliserte spill fremover nettopp grunnet at de "eier" console markedet. De har planlagt å havne i posisjonen de er i over flere år, og er veldig klare for å utnytte denne for hva det er verdt. Foreløpig har de en veldig lav andel av PC markedet, men nå skal APPLE bruker AMD polaris GPUer i sine produkter også.

Endret av sande
Lenke til kommentar

 

 

Grenser jo mot å høres ut som en fanboy her

 

Det er jeg ikke, selv om har 3 stk GTX titan. Selv om jeg kanskje er spill Fanboy, da jeg ikke hadde overlevd på intel skjermkort. intel Knights Landing GPU blir nok for dyrt for spilling.

Kjøpt 2 brukt, for å kunne spille.

Kunne godt kjøpt AMD hvis de hadde skjermkort, som er bedre egnet en konsoll alternativ.

da R9 490x er noe stiv priset og ikke gir ytelsen man håper AMD Nano er vel dyr alternativ for GTX 970 Mini.

 

Så hvis AMD lever bedre skjermkort slik de var i ledelsen med HD 7970 kan jeg godt gå for AMD.

Men i dag er det kun konsoll (PS4\Xbox one) AMD har skjermkort der ikke nvidia har noe.

 

Syns konsoller burde fått Nvidia 1080M kanskje jeg kunne kjøpt PS4 hvis de hadde det.

Uten å ha sjekket mener jeg å ha fått med meg en plass at nvidia ikke kommer med mobile gpu denne generasjonen.

Lenke til kommentar

 

 

Grenser jo mot å høres ut som en fanboy her

 

Det er jeg ikke, selv om har 3 stk GTX titan. Selv om jeg kanskje er spill Fanboy, da jeg ikke hadde overlevd på intel skjermkort. intel Knights Landing GPU blir nok for dyrt for spilling.

Kjøpt 2 brukt, for å kunne spille.

Kunne godt kjøpt AMD hvis de hadde skjermkort, som er bedre egnet en konsoll alternativ.

da R9 490x er noe stiv priset og ikke gir ytelsen man håper AMD Nano er vel dyr alternativ for GTX 970 Mini.

 

Så hvis AMD lever bedre skjermkort slik de var i ledelsen med HD 7970 kan jeg godt gå for AMD.

Men i dag er det kun konsoll (PS4\Xbox one) AMD har skjermkort der ikke nvidia har noe.

 

Syns konsoller burde fått Nvidia 1080M kanskje jeg kunne kjøpt PS4 hvis de hadde det.

Uten å ha sjekket mener jeg å ha fått med meg en plass at nvidia ikke kommer med mobile gpu denne generasjonen.

http://videocardz.com/60973/nvidia-geforce-10-mobile-series-to-be-released-in-august

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...