Gå til innhold

Hvor mye kommer du til å bruke på ditt nye skjermkort og hvorfor? Amd / Nvidia?


Hvor dyrt blir ditt neste skjermkort? Amd eller Nvidia?  

197 stemmer

  1. 1. Hvor mange kroner kommer du til å bruke på ditt /dine neste skjermkort?

    • Opp til 500 Kroner.
      1
    • 500 - 1000 Kroner.
      1
    • 1000 - 2000 Kroner.
      7
    • 2000 - 3000 Kroner.
      31
    • 3000 - 4000 Kroner.
      43
    • 4000 - 5000 Kroner.
      24
    • 5000 - 7500 Kroner.
      50
    • 7500 - 10.000 Kroner.
      23
    • Ingen øvre grense...
      17
  2. 2. Amd eller Nvidia?

    • Nvidia.
      87
    • Amd.
      25
    • Det kortet som gir best mulig ytelse for pengene innenfor budsjettet mitt ovenfor.
      85
  3. 3. Er du en Fanboy?

    • Nei.
      178
    • Ja.
      19


Anbefalte innlegg

Større problem på finn. Når man hører med selger f.eks GTX 980\TI selv om man ikke gir bud, men sjekker om selger har kvittering\eller erfaringer med kortet er selgene helt stille, gått 3-4 dager, selgerne burde være ivrige å få solgt raskest mulig?

 

Men det virker ikke slik. Får lyst å svare med å gi lavere pris i så fall.

Ofte det er grunnen for man aldri hører fra selgerne.

Tviler på alle selger på finn har tatt sommerferie så tidlig, så det er jo rart.

I Juli burde det være vanskelig å kjøpe brukt.

 

Av rundt 8 personer på finn gir kun 2 svar så langt.

Før i tiden kunne man fått fraktprisen inkludert ved pruting.

I dag prøver de fleste å ungå sende, vil kun at skjermkortet blir hentet, med penger rett i lommen.

Vanskelig med finn betalingsgaranti i dag.

 

Samme her, virker som de egentlig ikke er så interessert i å selge, men men, de om det :)

Lenke til kommentar
Videoannonse
Annonse

Tallene i fra steam stemmer ikke overhode her, men artig å se hvor mye nordmenn er villig til å bruke på DX11 ytelsen^^

Ikkje så rart, da det knapt finnes dx12 spill. I fjor ble det sagt at NESTE år skulle det ta helt av med DX12.... Høsten blir nok bra med BF1, da frostbite er den motoren som viser seg å være best på skalering av hardware.

Lenke til kommentar

 

Tallene i fra steam stemmer ikke overhode her, men artig å se hvor mye nordmenn er villig til å bruke på DX11 ytelsen^^

Ikkje så rart, da det knapt finnes dx12 spill. I fjor ble det sagt at NESTE år skulle det ta helt av med DX12.... Høsten blir nok bra med BF1, da frostbite er den motoren som viser seg å være best på skalering av hardware.

 

 

DX 12 : https://en.wikipedia.org/wiki/List_of_games_with_DirectX_12_support

Deus Ex : Mankind divided August / September 2016.

Ark Survival evolved : August / September 2016.

Total War : Warhammer : Ute nå

Forza Motorsport 6  : Apex : Ute nå.

Hitman 

Rise of the Tomb Raider

Gears of War ultimate Edition

 

Det har altså kommet en god del spill og ser man på Total War warhammer så er det jo ganske så spennende lesning egentlig...

Kan være greit å begynne å oppdatere seg selv der Nizzen...

Lenke til kommentar

 

 

Tallene i fra steam stemmer ikke overhode her, men artig å se hvor mye nordmenn er villig til å bruke på DX11 ytelsen^^

Ikkje så rart, da det knapt finnes dx12 spill. I fjor ble det sagt at NESTE år skulle det ta helt av med DX12.... Høsten blir nok bra med BF1, da frostbite er den motoren som viser seg å være best på skalering av hardware.

DX 12 : https://en.wikipedia.org/wiki/List_of_games_with_DirectX_12_support

Deus Ex : Mankind divided August / September 2016.

Ark Survival evolved : August / September 2016.

Total War : Warhammer : Ute nå

Forza Motorsport 6 : Apex : Ute nå.

Hitman

Rise of the Tomb Raider

Gears of War ultimate Edition

 

Det har altså kommet en god del spill og ser man på Total War warhammer så er det jo ganske så spennende lesning egentlig...

Kan være greit å begynne å oppdatere seg selv der Nizzen...

Hvilke er skikkelige dx12 spill, altså ikkje dx 11 med liten patch for et par dx12 features?

 

Oppdatert for lengst ;)

Endret av Nizzen
Lenke til kommentar

Litt komisk at 45% sier de kommer til å kjøpe nVidia samme hva, men 90% sier at de ikke er fanboys  :roll:

Det trenger ikke det, AMD gir ikke direkte konkuranse.

 

Hadde AMD RX 480 kommet raskere og samtidig kunne utkonkurere GTX 980 TI OC.

Så tror jeg saken hadde vært helt anderledes. Folk velger nok det beste til sitt behov.

Virker Nvidia priorier å ha best skjermkort toppkort.

Lenke til kommentar

Litt komisk at 45% sier de kommer til å kjøpe nVidia samme hva, men 90% sier at de ikke er fanboys :roll:

Det er ikke det folk sier. Det er en overtolkning. Jeg feks kjøper nesten utelukkende basert på ytelse per watt, da hadde antakelig Nvidia vært det mest nærliggende å svare i pollen. Men det er ikke på langt nær det samme som Nvidia uansett hva. AtW

Lenke til kommentar

Du mener spill som virkerlig klarer å dra nytte av 8 kjerner\10 kjerner eller 22 kjerne cpu.

i teorien 3 way SLI av GTX 1080 OC? i 8k oppløsning?

 

Er enig DX12\Vulcan er litt tidlig ennå. Derfor venter nok folk en stund på GTX 1080.

Hadde spill vært uspillig uten GTX 1080 hadde saken vært en annen.

 

Hvilke er skikkelige dx12 spill, altså ikkje dx 11 med liten patch for et par dx12 features?

Lenke til kommentar

Tomb Raider har full støtte for DX12 , Total War vil få en kommende patch med full støtte, men akkurat nå er det støtte for de fleste funksjoner der i DX12 , Deus EX : Full støtte osv.

 

I tillegg vil jo de fleste spillene også kunne spilles i DX11 (som er nødvendig med tanke på forbrukerne ) .

 

Så har man jo indie titler som Caffeine : Første DX12 spillet som kom og blir lansert episodebasert ( kom vel ut i 2015 ).

Quantum Break : Ganske så stor forskjell mellom Nvidia og Amd skjermkortene der Amd gjør det dessidert best ( 980 Titan vs Fury x ) og med tanke på at dette spillet ikke akkurat benytter seg av Async compute så er det ganske så imponerende.

Gears of War ultimate edition : Med oppdatert patch er det tydelig at Nvidia sin Gameworks ikke lenger ødelegger for Amd

 

Så ja Nizzen, det begynner å komme en god del spill med full støtte for DX12 på markedet , så spørs det om hvor lenge du kan fortsette å nekte for det selv? Det ser i alle fall bra ut ytelsemessig for de som eier Amd kort.

Lenke til kommentar

Tomb Raider har full støtte for DX12 , Total War vil få en kommende patch med full støtte, men akkurat nå er det støtte for de fleste funksjoner der i DX12 , Deus EX : Full støtte osv.

 

I tillegg vil jo de fleste spillene også kunne spilles i DX11 (som er nødvendig med tanke på forbrukerne ) .

 

Så har man jo indie titler som Caffeine : Første DX12 spillet som kom og blir lansert episodebasert ( kom vel ut i 2015 ).

Quantum Break : Ganske så stor forskjell mellom Nvidia og Amd skjermkortene der Amd gjør det dessidert best ( 980 Titan vs Fury x ) og med tanke på at dette spillet ikke akkurat benytter seg av Async compute så er det ganske så imponerende.

Gears of War ultimate edition : Med oppdatert patch er det tydelig at Nvidia sin Gameworks ikke lenger ødelegger for Amd

 

Så ja Nizzen, det begynner å komme en god del spill med full støtte for DX12 på markedet , så spørs det om hvor lenge du kan fortsette å nekte for det selv? Det ser i alle fall bra ut ytelsemessig for de som eier Amd kort.

Spørs hva en "god del spill" defineres som.   

 

er 4 spill en god del, eller er det 30?  :green:

 

4 begynner å nærme seg "et par", hvis man luker ut noen :p

Lenke til kommentar

Freesync må vel være bra nok?

 

Selv bruker jeg verken freesync\Gsync.

Største problemet jeg har er at en del spill ikke tar bruk særlig mere en 4 GB ram, så hjelper lite med freesync\gsync når detaljene mangler på lengere avstandet i spillet.

 

Uten å ha testet teknologiene vil jeg si begge er oppskrytt, har man 80 bilder i sekundet med vsync aktivert er det bra nok i min mening.

Lenke til kommentar

Freesync må vel være bra nok?

 

Selv bruker jeg verken freesync\Gsync.

Største problemet jeg har er at en del spill ikke tar bruk særlig mere en 4 GB ram, så hjelper lite med freesync\gsync når detaljene mangler på lengere avstandet i spillet.

 

Uten å ha testet teknologiene vil jeg si begge er oppskrytt, har man 80 bilder i sekundet med vsync aktivert er det bra nok i min mening.

Her er du helt på bærtur desverre. Vennligst prøv igjen :)

  • Liker 3
Lenke til kommentar

Freesync må vel være bra nok?

 

Selv bruker jeg verken freesync\Gsync.

Største problemet jeg har er at en del spill ikke tar bruk særlig mere en 4 GB ram, så hjelper lite med freesync\gsync når detaljene mangler på lengere avstandet i spillet.

 

Uten å ha testet teknologiene vil jeg si begge er oppskrytt, har man 80 bilder i sekundet med vsync aktivert er det bra nok i min mening.

Du kan nok ikke si at G-sync er oppskrytt uten å ha testet det. G-sync er en ting man ikke kan direkte gi et konkret svar på med tall og grafer, det må sees med egne øyne.

G-sync sin jobb er å synkronisere skjerm og skjermkort, slik at det ikke blir ukorrekte bildevisninger(tearing), samt at du ikke får stuttering i forhold til framedrops som du får med vanlig v-sync.

 

Min erfaring er at G-sync er veldig oppskrytt. Kjekt å ha, vil definitivt ha, men koster 3K ekstra. Dersom du har en pc som klarer 120+++ frames konstant, så merket hvertfall ikke jeg spesielt mye til g-sync. Var mer på framedrops under 120fps at jeg merket at det ikke var like mye ustabiliteter, men i spill jeg aldri dipper under 120fps, så var det ikke noen "wow" faktor for meg.

I Middle Earth:Shadow of mordor merket jeg ikke g-sync i det hele tatt. Så spillet du spiller har mye å si.

 

Nå snakker jeg om det å gå fra en 144hz skjerm til en 144hz G-sync skjerm. Dersom du har en 60hz skjerm, så vil bare det å gå fra 60hz til 144hz skjerm natt og dag. Mange av de som skryter av G-sync, kom fra 60hz skjerm til en 144hz G-sync, og da roser de g-sync opp i skyene for den fantastiske forskjellen, når det i hovedsak var 144hz alene som stod for mesteparten. 

Men mange mener fremdeles at g-sync er den nye standarden, og jeg kan godt forstå det, men ikke til prisen. Så stor var forskjellen(for meg) strengt tatt ikke, og hadde ingen problem med å spille på standard 144hz skjerm igjen når jeg måtte returnere g-sync 144hz skjermen jeg hadde.

 

Konklusjonen min ble da:

Frame drops under 120fps: Kjekt med g-sync, merker ikke frame dropene like godt, men de er fremdeles merkbare.

Over 120fps konstant: Ikke veldig merkbart, litt, men meget lite.

 

Dersom jeg hadde spilt på 80fps som du nevner her, tror jeg definitivt at jeg enten hadde oppgradert skjerm(til g-sync) eller skjermkort, såfremst du ikke klarer deg med mindre øyegodteri.

 

Slik prisene på g-sync er nå, burde egentlig alle la være å kjøpe det, slik at Nvidia begynner å skru ned prisene. De priser ting vanvittig høyt, men folk kjøper i bøter og spann likevel.

Men ja, jeg synes g-sync er oppskrytt, og ikke den store "gamechangeren" folk skal ha det til. Freesync gjør samme jobben(så lenge du opprettholder fps over 35 elns), og det koster 3000kr mindre i de fleste tilfeller. Så det er ganske tydelig at med prisinga Nvidia holder på med på blandt annet G-sync, så er det en ganske stor rip-off.

G-sync er kjekt, men på ingen måte et must. Det at man må betale 3K ekstra for en skjerm med g-sync, som låser deg til å bruke Nvidia kort, er faktisk ganske skittent. AMD sin freesync koster ingenting ekstra, og det er en åpen teknologi Nvidia også kunnet implementert i kortene sine, men de skal ha ekstra cash. Det er i grunn ganske skittent spill.

Endret av Enlightened
  • Liker 1
Lenke til kommentar

 

Du kan nok ikke si at G-sync er oppskrytt uten å ha testet det. G-sync er en ting man ikke kan direkte gi et konkret svar på med tall og grafer, det må sees med egne øyne.

G-sync sin jobb er å synkronisere skjerm og skjermkort, slik at det ikke blir ukorrekte bildevisninger(tearing), samt at du ikke får stuttering i forhold til framedrops som du får med vanlig v-sync.

 

Min erfaring er at G-sync er veldig oppskrytt. Kjekt å ha, vil definitivt ha, men koster 3K ekstra. Dersom du har en pc som klarer 120+++ frames konstant, så merket hvertfall ikke jeg spesielt mye til g-sync. Var mer på framedrops under 120fps at jeg merket at det ikke var like mye ustabiliteter, men i spill jeg aldri dipper under 120fps, så var det ikke noen "wow" faktor for meg.

I Middle Earth:Shadow of mordor merket jeg ikke g-sync i det hele tatt. Så spillet du spiller har mye å si.

Men har du da prøvd Vsync som også er software basert som freesync?

 

Eller er Gsync\Free sync mere for SLI\Crossfire X?

Da de elminer mye av problemene med flere skjermkort?

 

Vet f.eks Crysis på R9 380x gir veldig dårlig bildekvalitet uten vsync.

Blir som hele skjermbildet hakker, vet ikke helt hvorfor AMD er så mye dårligere en GTX titan.

Om det kan være HDMI porting eller skjermkortet i spillet er dårlig optimalisert.

 

Da DVI\Displayport ikke gir samme problemene på 120 hz skjerm. Kan fint sette 60 bilder i sekundet uten det blir mere hakkete av den grunn. Så vet ikke om det kan være dårligere drivere\ utdatert grafikkmonitor.

Endret av LMH1
Lenke til kommentar

Når skjermen er satt til 60Hz, og spillet er satt til V-Sync på. Så betyr det at hver frame må lages av skjermkortet på 16,67ms eller mindre. Tar en frame mer tid enn dette, så oppdaterer skjermen seg på nytt uten ny informasjon. Det vil si; det samme bildet som var på skjermen fra før, blir vist om igjen i 16,67ms til.

 

Heldigvis er 16,67ms et hav av tid for mange skjermkort i dag. 60Hz er en enkel frekvens å drive uten at noen frames må repeteres. Og 60 fps med unike bilder gir en ganske jevn bevegelse. Faktisk blir det verre å å få jevn bildeflyt med en skjerm satt til 120Hz. Fordi da må hver eneste frame lages på mindre enn 8,33ms, ellers blir frame'en repetert, og stående på skjermen i 16,67ms i stedet for bare 8,33ms.

 

Så la oss si et spill er litt for tungt for skjermkortet å drive i den valgte grafikkkvaliteten i 120Hz. Mange frames vil være på skjermen i (og nå avrunder jeg for enkelthets skyld) bare 8ms, men innimellom får man en frame som repeteres. Man ender opp med en rekke der et unikt bilde er på skjermen i f.eks. 8, 8, 8, 8 ,8, 8, 16, 8, 8, 8, 16, 8, 8, 16, 8, 16, 16, 8, 8, 8 ms osv osv. Sammenlikn så det med en skjerm på 60Hz der hver eneste frame er kun på skjermen i 16 ms. Man får altså færre fps, men i en helt jevn takt. 16, 16, 16, 16, 16, 16, 16 ms osv osv.

 

Så kommer det geniale med G-Sync og FreeSync. Som forøvrig begge er avhengig av hardware for å fungere. Største forskjellen er egentlig bare at Nvidia lagde en scaler chip med støtte for "adaptive sync" for monitorer selv, i stedet for å vente på at de vanlige scaler produsentene skulle få fingeren ut og lage en chip med samme støtte som hyllevare. Orginalt var "adaptive sync" en strømsparende funksjon for laptoper. Og det var AMD som forslo at "adaptive sync" skulle bli en del av VESA standarden. Man kan trygt si de ble scoopet av Nvidia her.

 

Så.. det geniale.. Med "adaptive sync" (altså enten G-Sync eller FreeSync). Så vises hver frame på skjermen i nøyaktig den tid det tar skjermkortet å lage en ny frame. Så selv om man har en skjerm som er i stand til å vise opp til 120 unike bilder i sekundet. Så er det ikke lenger slik at om et bilde kommer for sent til "toget". Så må skjermen vise det samme bildet om igjen like lenge som det ble vist første gang. I stedet så venter "toget" på perongen til neste bilde er klart.

 

Hvor lenge en frame blir stående på skjermen er altså ikke lenger låst til disse faste satte intervallene. Om en frame tar 9 ms å lage, så må ikke den forrige frame'en stå på skjermen i hele 16 ms. Den står i stedet i.. drumroll..9 ms. I stedet for lange rekker med 8, 8, 16, 8, 8, 16, 16, 8, 8, 8 ms osv (hakkefest). Så får man for eksempel 8, 8, 8, 8, 9, 9, 8, 8, 8, 9, 10, 8, 9, 8, 10, 9, 8, 8 ms osv osv. (silky smooth).

 

"Adaptive sync" er rett og slett veldig likt "V-Sync", men uten faste oppdateringsintervaller.

 

Så er "adaptive sync" mest for SLI/CFX? Nei, frametimes er veldig varierende, og kanskje til og med spesielt med bare ett skjermkort. I SLI/CFX kan man havne i grenseområder på frametimes som gjør det mer aktuelt med "microstutter". Og "adaptive sync" kan selvfølgelig hjelpe på det også. Men det er strengt tatt mer som en bonus. For med SLI/CFX så har man ofte så mye ekstra grafikk hestekrefter at man strengt tatt ikke en gang trenger "adaptive sync" lenger. Så lenge grafikkort løsningen aldri leverer mindre fps enn skjermens Hz, og gjør dette uten at noen frametimes overskrider maks tiden for oppdatering av skjermen. Så vil ikke en eventuell "adaptive sync" løsning en gang være aktivert.

 

Så, er det noen vits med "adaptive sync" om skjermkortet leverer fps godt over skjermens Hz? Vel, det man kan gjøre når man har så mye ekstra "hestekrefter", er rett og slett å sette opp grafikk innstillingene til du ikke lenger får så høy fps. Men man får bedre grafikk. Og om spillet er litt eldre, og alt allerede står på "Ultra". Da kan man ta i bruk DSR/VSR og rendre spillet i større oppløsning enn skjermens oppløsning. Dette gir økt detaljnivå i spill, og man kan faktisk vurdere å heller spille på "High" med 1440p DSR/VSR, enn å spille på "Ultra" med skjermens 1080p oppløsning. Det kan i mange tilfeller gi bedre grafikk.

 

Når Enlightened sier han synes G-Sync er oppskrytt, så er det rett og slett fordi han brukte det feil. ;)

Endret av Gabri3L
  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...