Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

FAQ: Hva er VSync/G-Sync/Freesync/Adaptive sync/jegvetikkehvasync, osv. og trenger jeg det?


Gabri3L

Anbefalte innlegg

Jeg har nå en Intel I 5  4690 4 kjerner eldgammal cpu og 4 år gammer 8 gb ram i pc og det egentlige grafikk korter er GTX 770 med 2 gb ram som lyder som en orkan når jeg spiller for eks Farcry 5 på minimum instillinger for ikke å snakke om Odyssy og cpu varmen er nærmere 90 grader og cpu load er 99% så jeg må gjøre noe, først skrittet var RTX kortet neste er cpu og ram så skjermen men alt kan ikke komme på en gang .P Jeg vil like å spille Shadow Of the Tombraider i 4 k eller Odyssy i 4 k senere også Forza spillene men det er jo på lengre sikt da.

Men nå har jeg RTX kortet har ikke innstalert det ennå men selv om det klør i fingrene så kanskje 1 måned til så har man cpu, ram og hoved kort så kommer skjermen jeg nevner !

Så har det noen hensikt å innstalere rtx kortet ivertfall før man får nytt hovedkort og i7 og 16 gb ram ? Heldigvis har jeg et 750 W power supply.

Endret av Tåka
Lenke til kommentar
Videoannonse
Annonse

Jeg har nå en Intel I 5  4690 4 kjerner eldgammal cpu og 4 år gammer 8 gb ram i pc og det egentlige grafikk korter er GTX 770 med 2 gb ram som lyder som en orkan når jeg spiller for eks Farcry 5 på minimum instillinger for ikke å snakke om Odyssy og cpu varmen er nærmere 90 grader og cpu load er 99% så jeg må gjøre noe, først skrittet var RTX kortet neste er cpu og ram så skjermen men alt kan ikke komme på en gang .P Jeg vil like å spille Shadow Of the Tombraider i 4 k eller Odyssy i 4 k senere også Forza spillene men det er jo på lengre sikt da.

Men nå har jeg RTX kortet har ikke innstalert det ennå men selv om det klør i fingrene så kanskje 1 måned til så har man cpu, ram og hoved kort så kommer skjermen jeg nevner !

Så har det noen hensikt å innstalere rtx kortet ivertfall før man får nytt hovedkort og i7 og 16 gb ram ? Heldigvis har jeg et 750 W power supply.

Ja jøss, vil gi et kjempeløft det!

Den i5en din med litt overklokk er ikke såå sur heller. Den vil slite veldig med odessey, men resten av spillene du nevner vil funke greit

Lenke til kommentar

Jeg har nå en Intel I 5  4690 4 kjerner eldgammal cpu og 4 år gammer 8 gb ram i pc og det egentlige grafikk korter er GTX 770 med 2 gb ram som lyder som en orkan når jeg spiller for eks Farcry 5 på minimum instillinger for ikke å snakke om Odyssy og cpu varmen er nærmere 90 grader og cpu load er 99% så jeg må gjøre noe, først skrittet var RTX kortet neste er cpu og ram så skjermen men alt kan ikke komme på en gang .P Jeg vil like å spille Shadow Of the Tombraider i 4 k eller Odyssy i 4 k senere også Forza spillene men det er jo på lengre sikt da.

Men nå har jeg RTX kortet har ikke innstalert det ennå men selv om det klør i fingrene så kanskje 1 måned til så har man cpu, ram og hoved kort så kommer skjermen jeg nevner !

Så har det noen hensikt å innstalere rtx kortet ivertfall før man får nytt hovedkort og i7 og 16 gb ram ? Heldigvis har jeg et 750 W power supply.

 

Vel, til din bruk ville jeg nok heller gått for en G-Sync skjerm.

 

Poenget med RTX2080, utenom RTX, er vel at det er rundt (i midt eksempel) 50% raskere enn et Vega 56 (Men da er jeg i overkant snill med RTX2080, det er egentlig mer rundt 42%). Da vil man jo helst ha 50% raskere ytelse også vel? Men så banalt som det enn måte høres ut; Hva er ytelse? La meg ta et eksempel:

 

La oss si du får i hovedsak i gjennomsnitt ~70 fps i et spill med Vega 56 +/- 10% (Altså, vi ser bort fra 1% og 0,1% lows). Så minimum 63 fps, og maksimum 77fps. Alle disse frame'ene vil ligge innenfor skjermens Freesync range, så om en frame tar mellom 12,99fps, og 15,87 fps å lage, så vil aldri forrige frame stå på skjermen mer enn den tiden det tar å lage neste frame, altså fra 12,99ms til 15,87ms. Hver eneste frame som produseres vil altså være en unik frame, og den vil bli fremvist på skjermen. Med en variasjon på kun 2,86ms. Vi har, litt dumt sagt, reellt 100% utnyttelse av skjermkortet.

 

Så kommer noen i stedet med et RTX2080 som er ~50% raskere... På papiret. Freesync fungerer ikke, og hver frame vil stå på skjermen enten ~7, ~14, eller ~21ms osv. Fordi det er eneste intervallene som er tilgjengelig for å sende nytt bilde til denne skjermen uten Freesync. Nå har man et par valg. Man kan bruke VSync med 2 buffere, som i praksis gjør skjermen om til en 72Hz skjerm i dette tilfellet, fordi skjermkortet vil aldri klare, gitt at det ligger på 105fps +/- 10%, å lage en frame på mindre enn 7ms. Skjermkortet vil sende et nytt unikt bilde til skjermen hvert ~14ms. Altså 72fps. På pluss siden vil variabiliteten være 0ms. Men 72 fps? kjøper man virkelig et skjermkort til nesten det dobbelte av prisen for å få 2fps ekstra? Man skulle jo håpe ingen gjorde det.

 

MEN, man har et annet valg; VSync med 3 buffere (også kjent som "Fastsync" hos Nvidia). Nå kan man få ganske mange unike bilder på skjermen selv uten Freesync aktivt. Men, noen frames vil jo fremdeles måtte stå på skjermen i ~14ms, mens andre står der kun i ~7ms (Dette er nærmere forklart i første post i denne tråden). Men nå har vi jo opp til 100% variabilitet i hvor lenge en frame står på skjermen. Altså enten 7, eller 14ms... Dersom du har "bruk" for en 144Hz skjerm, så vil dette være synlig som hakking. Men er ikke hele poenget med høyere fps å unngå nettopp hakking? ;)

 

Alternativ 3, er VSync av. Man får all ytelsen RTX2080 har å by på, men med tearing i bildet...

 

Som sagt; en Vega 56 vil gjøre jobben minst like greit på denne skjermen, kanskje egentlig til og med bedre enn et RTX2080, dersom man ikke stiller det inn korrekt. Skal du få utnyttet skjermkortet ditt ordentlig, sammenliknet med et Vega 56 og denne skjermen, så må du nesten ha en G-Sync skjerm til skjermkortet ditt.

 

Edit: Glemte CPU og RAM. Om du hadde gått for en 4K skjerm til ditt RTX2080 nå, så ville du kunne hatt glede av 8GB til med minne på HK. Men selv ikke kommende 9900k ville gitt deg merkbart raskere grafikk i 4K. Som sagt går krav til CPU ned med høyere oppløsninger. Til 1440p og RTX2080, gir det imidlertid mer mening med en oppgradering av CPU og RAM.

Endret av Gabri3L
Lenke til kommentar

Tusen takk for hjelpen all dere  jeg prøver RTX kortet i morgen så ser jeg om "orkan" lyden i spillene forsvinner og ha en normal temp på cpu osv men jeg skal bytte til overnevnte senere men ikke nå da man har begrensede midler til dette på kort tid tusen takk for innspillene dere har gjort meg "litt" mer kyndig om hva som skal til .)) takk takk!!!

Endret av Tåka
Lenke til kommentar
  • 2 måneder senere...

Fy faen!

 

Sitter og ser på CES presentasjonen til Nvidia... Delvis Freesync støtte med Nvidia skjermkort!!! Endelig, ihvertfall et første skritt!  :thumbs:

Ser jo faktisk ut til å være full freesync-støtte såfremt man aktiverer manuelt :) Smal range på en del freesync-skjermer dog, men uansett bra :)

Lenke til kommentar

Nvidia vil vell fremdeles ikke støtte g-sync via HDMI eller? I så fall har fremdeles AMD en stor fordel der når det gjelder det enorme utvalget av skjermer :)

 

Jeg vet ikke om jeg vil kalle det en "stor" fordel uansett. Det er vel kun 75Hz skjermer som har kun HDMI inngang? De fleste som skal ha "gamer" skjerm satser seg jo uansett inn på 144Hz om de har råd. Freesync over HDMI er proprietært, så Nvidia slipper ikke med å kalle det "adaptive sync over HDMI" om de ville støttet det. De hadde måttet tatt ordet "Freesync" i sin munn, og det kommer nok ikke til å skje. Men VRR som kommer med HDMI 2.1 er jo "adaptive sync over HDMI", så det er det ingenting i veien for at Nvidia vil støtte nå som de ikke låser kortene til G-Sync lenger...

Lenke til kommentar

Jeg vet ikke om jeg vil kalle det en "stor" fordel uansett. Det er vel kun 75Hz skjermer som har kun HDMI inngang? De fleste som skal ha "gamer" skjerm satser seg jo uansett inn på 144Hz om de har råd. Freesync over HDMI er proprietært, så Nvidia slipper ikke med å kalle det "adaptive sync over HDMI" om de ville støttet det. De hadde måttet tatt ordet "Freesync" i sin munn, og det kommer nok ikke til å skje. Men VRR som kommer med HDMI 2.1 er jo "adaptive sync over HDMI", så det er det ingenting i veien for at Nvidia vil støtte nå som de ikke låser kortene til G-Sync lenger...

Stor fordel for budsjettgameren ;) Nei, noen stor fordel er det vell egentlig ikke, men en fordel allikevel. Håper Nvidia støtter HDMI 2.1 temmelig kjapt :)

Lenke til kommentar
  • 3 uker senere...

Noe det sikkert finnes tester på, men som Gabriel nok forklarer enkelt. Med fastsync eller enhanced sync får man adaptiv sync over skjermens refresh. Hva er da de praktiske forskjellene på å kjøre 120 fps på et henholdsvis 75 og 144Hz display? Antar førstnevnte vil kunne gi mer input-lag? Hva skjer uten adaptiv sync/fastsync/v-sync på de 2 skjermene? :)

Lenke til kommentar

Premisset ditt er litt feil, så da blir det litt vanskelig å forstå nøyaktig hva du spør om. Fast sync/Enhanced sync er ikke "Adaptive sync over skjermens refresh". Det er ganske enkelt bare automatisk switching mellom adaptive sync, og Vsync (med triple buffer) når fps overskrider skjermens maks refresh.

 

Før Fast/Enhanced sync kom, når man måtte velge hva som skjer om fps overskrider skjermens max refresh, så hadde man kun mulighet til å velge mellom Vsync av eller på (med dobbel buffer). Altså maks Hz, var det samme som maks fps, med VSync på. Eller høyere fps enn skjermens maks refresh med VSync av, men da med tearing i bildet.

 

Fast/Enhanced sync ga et tredje valg; VSync med triple buffer. En slags hybrid mellom Vsync av og på, der skjermkortet tillates å begynne på neste bilde før forrige er sendt til skjermen, i motsetning til med Vsync på. Men ingen bilder blir sendt til skjermen uten å være ferdig tegnet, i motsetning til med Vsync av. Fast/Enhanced sync er altså bare et annet navn for VSync (med trippel buffer) på.

 

Jeg kunne jo prøvd å forklare eksemplene likevel, men må legge til et premiss eller to til. For hele poenget med adaptive sync, er jo at spillenes fps er svært variabel. Og at det har introdusert en del problemer med "fixed refresh rate" monitorer, som "variable refresh rate" monitorer forsøker å fikse.

 

Jeg misstenker at det som gjør det litt vanskelig for folk å få helt med seg hva som er så bra med "adaptive sync", er at de tenker i fps, i stedet for millisekunder og variabilitet. For eksempel vil jo 120 fps som regel kun være et uttrykk for at i gjennomsnitt tok det 8,33 ms for datamaskinen å tegne ett bilde. Men det sier ingenting om over hvor lang tid. Jeg kan jo spille i 10 minutter for eksempel, og i de første fem minuttene av spillet er jeg i jungelen med millioner av ting som skal tegnes, der skjermkortet ikke klarer mer enn 60 fps. Og så løper jeg ned på stranden i 5 minutter, der det er nærmest "ferie" for skjermkortet i forhold, og det derfor klarer pumpe ut 180 fps. Over de 10 minuttene vil gjennomsnittet være 120 fps, men det forteller jo ingenting om at halvparten av spillet hadde jeg halvparten... I gjennomsnitt...

 

Nå, på både 75Hz monitoren, og 144Hz monitoren, uten noen form for sync, så vil man jo få tearing i bildet uansett. Forskjellen vil være at 144Hz skjermen vil fremvise mer bevegelses informasjon. Og at siden hver skjerm refresh skjer hvert ~7ms, så vil man kanskje se mindre til tearingen, siden den flytter seg hvert ~7ms. Mens på 75Hz monitoren vil man få mindre bevegelses informasjon, og tearingen vil være på skjermen i 13,33ms før den flytter seg til en annen plass på skjermen, og derfor være lettere å få med seg, enn på en 144Hz skjermen.

 

Poenget med Enhanced sync på 75Hz monitoren ville/skulle vært å fjerne tearingen, men beholdt input lag som om Vsync fremdeles var skrudd av. I praksis, som du spurte om, så må imidlertid fps være mer enn det dobbelte av skjermens maks refresh, før den effekten gjør seg gjeldende. Nøyaktig hvorfor er jeg ikke sikker på, i teorien burde man fått fordelen med 120 fps som om det var uten Vsync. Jeg antar metoden rett og slett tar med seg for mye "overhead". Og det er mulig det vil være forskjell fra spill til spill.

 

At Fast/Enhanced sync som sagt "bare" er et annet navn på Vsync med trippel buffer, er kanskje litt unøyaktig sagt. Faktum er at spill utviklere har hatt anledning til å implementer trippel buffret Vsync siden DX11 ble introdusert. Det er bare det at ikke mange av dem har utnyttet muligheten. Fast/Enhanced sync er slik sett en måte å tvinge frem trippel buffret Vsync i spill som ikke i utgangspunktet støtter det. Har man en helt vanlig skjerm uten adaptive sync, og spillutvikleren har benyttet muligheten i DX11 til å støtte trippel buffret Vsync. Så får man altså samme effekt på en helt vanlig skjerm som ikke støtter noen form for adaptive sync. Med Nvidia skjermkort trenger man faktisk ikke adaptiv sync skjerm for å aktivere Fast sync, men jeg innbiller meg man ha Freesync skjerm for å aktivere Enhanced sync.

 

Jeg har ikke AMD skjermkort i maskinen for øyeblikket, så det kunne kanskje du sjekket?

Lenke til kommentar

Takk for svar. V-sync med triple buffer altså ;) Har bare en freesyncskjerm nå så får ikke testa enhanced sync uten FS skjerm. Nvidiamaskina er laptop med g-sync så har ingen andre skjermer å teste med nå :/

 

Det er jo bare å skru av Freesync i skjermens meny, så blir den jo som en fixed refresh rate monitor. ;)

Lenke til kommentar
  • 3 uker senere...

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...