Gå til innhold

«G-Sync-knuseren» fra AMD blir gratis på alle skjermer


Anbefalte innlegg

Hvorfor blir Adaptive V-Sync standard på displayport som har begrensninger på oppdateringsfrekvens? På 1.2 som er standard på GTX 780 så er det maks 60hz på Displayporten. På 1.3 så er det 120hz og det også er jo for lite da fleste "gaming skjermer" faktisk har opptil 144hz og 240hz i dag.

 

Så jeg ser ikke helt poenget her, hvorfor ikke gjøre dette på DVI som har ubegrenset med frekvenser. Hvis jeg ikke tar helt feil her så vil jo G-Sync fortsatt være bedre.

 

DVI har da ikke ubegrenset refresh.

 

AtW

Lenke til kommentar
Videoannonse
Annonse

 

Hvorfor blir Adaptive V-Sync standard på displayport som har begrensninger på oppdateringsfrekvens? På 1.2 som er standard på GTX 780 så er det maks 60hz på Displayporten. På 1.3 så er det 120hz og det også er jo for lite da fleste "gaming skjermer" faktisk har opptil 144hz og 240hz i dag.

 

Så jeg ser ikke helt poenget her, hvorfor ikke gjøre dette på DVI som har ubegrenset med frekvenser. Hvis jeg ikke tar helt feil her så vil jo G-Sync fortsatt være bedre.

 

DVI har da ikke ubegrenset refresh.

 

AtW

 

 

Du har ingen begrensninger i DVI-interfacet men begrensninger i båndbredden i kabelen og så må du selvsagt ha en skjerm som takler høyere oppdateringsfrekvens

 

Avean

Lenke til kommentar

 

 

Hvorfor blir Adaptive V-Sync standard på displayport som har begrensninger på oppdateringsfrekvens? På 1.2 som er standard på GTX 780 så er det maks 60hz på Displayporten. På 1.3 så er det 120hz og det også er jo for lite da fleste "gaming skjermer" faktisk har opptil 144hz og 240hz i dag.

 

Så jeg ser ikke helt poenget her, hvorfor ikke gjøre dette på DVI som har ubegrenset med frekvenser. Hvis jeg ikke tar helt feil her så vil jo G-Sync fortsatt være bedre.

 

DVI har da ikke ubegrenset refresh.

 

AtW

 

 

Du har ingen begrensninger i DVI-interfacet men begrensninger i båndbredden i kabelen og så må du selvsagt ha en skjerm som takler høyere oppdateringsfrekvens

 

Avean

 

 

Begrensingen i båndbredde gjør at begrensningen blir minst like reell som i display-port i det virkelige liv.

 

AtW

Lenke til kommentar

 

 

 

Hvorfor blir Adaptive V-Sync standard på displayport som har begrensninger på oppdateringsfrekvens? På 1.2 som er standard på GTX 780 så er det maks 60hz på Displayporten. På 1.3 så er det 120hz og det også er jo for lite da fleste "gaming skjermer" faktisk har opptil 144hz og 240hz i dag.

 

Så jeg ser ikke helt poenget her, hvorfor ikke gjøre dette på DVI som har ubegrenset med frekvenser. Hvis jeg ikke tar helt feil her så vil jo G-Sync fortsatt være bedre.

 

DVI har da ikke ubegrenset refresh.

 

AtW

 

 

Du har ingen begrensninger i DVI-interfacet men begrensninger i båndbredden i kabelen og så må du selvsagt ha en skjerm som takler høyere oppdateringsfrekvens

 

Avean

 

 

Begrensingen i båndbredde gjør at begrensningen blir minst like reell som i display-port i det virkelige liv.

 

AtW

 

 

Ja du kan vel ikke ha hva som helst av oppdateringsfrekvens siden du vil møte på en flaskehals i båndbredden uansett med DVI, men DisplayPort portene i dag er jo bare 1.2 på skjermkortene og de stopper på 60hz. Det gjør det ikke på DVI, der går det faktisk helt til 144hz ved 1080p oppløsning

 

Avean

Lenke til kommentar

 

 

 

 

Hvorfor blir Adaptive V-Sync standard på displayport som har begrensninger på oppdateringsfrekvens? På 1.2 som er standard på GTX 780 så er det maks 60hz på Displayporten. På 1.3 så er det 120hz og det også er jo for lite da fleste "gaming skjermer" faktisk har opptil 144hz og 240hz i dag.

 

Så jeg ser ikke helt poenget her, hvorfor ikke gjøre dette på DVI som har ubegrenset med frekvenser. Hvis jeg ikke tar helt feil her så vil jo G-Sync fortsatt være bedre.

 

DVI har da ikke ubegrenset refresh.

 

AtW

 

 

Du har ingen begrensninger i DVI-interfacet men begrensninger i båndbredden i kabelen og så må du selvsagt ha en skjerm som takler høyere oppdateringsfrekvens

 

Avean

 

 

Begrensingen i båndbredde gjør at begrensningen blir minst like reell som i display-port i det virkelige liv.

 

AtW

 

 

Ja du kan vel ikke ha hva som helst av oppdateringsfrekvens siden du vil møte på en flaskehals i båndbredden uansett med DVI, men DisplayPort portene i dag er jo bare 1.2 på skjermkortene og de stopper på 60hz. Det gjør det ikke på DVI, der går det faktisk helt til 144hz ved 1080p oppløsning

 

Avean

 

 

Pass på å skille mellom hva som er begrensningen i display-port-standarden, og hva skjermkortleverandørene har implementert.

 

AtW

  • Liker 1
Lenke til kommentar

 

 

Advantages over DVI, VGA and FPD-Link
  • 17.28 Gbit/s of effective video bandwidth, enough for four simultaneous 1080p60 displays (CEA-861 timings), stereoscopic 2,560 × 1,600 × 30 bit @120 Hz (CVT-R timings), or 4K UHDTV @60 Hz[note 1]

 

DisplayPort

 

DP 1.2 burde vel da strengt talt ha mulighet til 1080p @ 240Hz. Nå vet jeg ikke hva som skjer om man går utenfor hva skjermkortprodusenten har implementert støtte for. Om det er som med DVI at man kan gå ut av spesifikasjonene, og kjøre på til de grensene som DVI klarer. Ja man kan selv gå utenfor den maks spesifiserte båndbredden, som på et punkt vil gjøre at bildet ikke lengre er stabil.

Lenke til kommentar

 

 

 

 

 

Hvorfor blir Adaptive V-Sync standard på displayport som har begrensninger på oppdateringsfrekvens? På 1.2 som er standard på GTX 780 så er det maks 60hz på Displayporten. På 1.3 så er det 120hz og det også er jo for lite da fleste "gaming skjermer" faktisk har opptil 144hz og 240hz i dag.

 

Så jeg ser ikke helt poenget her, hvorfor ikke gjøre dette på DVI som har ubegrenset med frekvenser. Hvis jeg ikke tar helt feil her så vil jo G-Sync fortsatt være bedre.

 

DVI har da ikke ubegrenset refresh.

 

AtW

 

 

Du har ingen begrensninger i DVI-interfacet men begrensninger i båndbredden i kabelen og så må du selvsagt ha en skjerm som takler høyere oppdateringsfrekvens

 

Avean

 

 

Begrensingen i båndbredde gjør at begrensningen blir minst like reell som i display-port i det virkelige liv.

 

AtW

 

 

Ja du kan vel ikke ha hva som helst av oppdateringsfrekvens siden du vil møte på en flaskehals i båndbredden uansett med DVI, men DisplayPort portene i dag er jo bare 1.2 på skjermkortene og de stopper på 60hz. Det gjør det ikke på DVI, der går det faktisk helt til 144hz ved 1080p oppløsning

 

Avean

 

 

Pass på å skille mellom hva som er begrensningen i display-port-standarden, og hva skjermkortleverandørene har implementert.

 

AtW

 

 

Jo men der har du problemet jeg vil fram til. Da må vi vente på nyere skjermkort for å ta i bruk Displayport 1.3 eller noe annet som gir oss høyere enn 60hz på displayport interfacet.

Hadde de implementert dette som standard på DVI i stedet så kunne jeg med et skjermkort til 4000kr brukt dette nå, istedenfor å vente på nyere skjermkort. Det jeg prøver å få fram her :)

 

Edit: Hvis det Andrull skriver her så er all good, da er jeg veldig fornøyd :) Men jeg har lest at displayport ikke har støtte for mer enn 60hz på 1080p men. Kanskje jeg tar feil.

Endret av Avean
Lenke til kommentar

Nei, du kunne ikke implementert det nå, fordi dette krever en oppdatering av standarden uansett, med påfølgende oppdatering av interfacet for de forskjellige leverandørene. De må uansett implmentere dette, og da kan de i samme slengen støtte mer enn 60 Hz i sin implementasjon om de kunstig begrenser dette i dag, du kunne ikke brukt dette over DVI med ett eldre skjermkort i den formen dette kommer.

 

AtW

Endret av ATWindsor
Lenke til kommentar

Liker at AMD kommer med hendig funksjonalitet, og prøver å nærme seg Nvidia på flere måter. TrueAudio kan jeg dog ikke se er en av dem.

 

For slik jeg kan se, så er det snakk om å flytte lydprosesseringen til skjermkortet. I så fall så høres det ut som skikkelig kjip teknologi som vi har sett lenge. For omtrent 6-7år siden så fikk jeg et lydkort med dedikert RAM og lydprosessor som står for lyd-prosesseringen, slik at CPUen slipper. Problemet var at det ga null og nix effekt. Hvorfor ikke? Fordi selv på den tiden var prosessorene for kraftige til å dra noe nytte av litt mindre last som uansett fordelte seg bra på de forskjellige kjernene.

En moderne prosessor i dag sitt største problem er i grunn programvaren selv, som ikke klarer å dele lasten likt over alle kjernene. Lyd er en av de tingene som lettere kan allokeres til andre kjerner som ikke jobber like tungt med grafikk og andre slike elementer i et spill. Og lyd krever heller ikke noe særlig uansett for en moderne prosessor.

Kort sagt, lydprosessering vil i realiteten ikke begrense hastigheten til CPU i særlig målbar og i hvert fall ikke merkbar grad. Ja selv selv i spill hvor prosessoren er flaskehals.

Men for all del, om prosessoren er svært svak, typisk dual-core, så kanskje det kan være en FPS eller to å tjene.

Lenke til kommentar

Det er en tosidig sak her, problemet med lyd i spill i dag er at det er elendig implementert, TrueAudio fører kanskje til mere fokus på en skikkelig implementasjon.

Videre så er denne dårlige implementeringen en av grunnene til at det krever lite, la oss si man vil ha real-time ray-tracing, det er ikke nødvendigvis så billig for CPUen.

 

AtW

Lenke til kommentar

Kudos til AMD, lang nese til Nvidia.

Kudos til AMD fordi de har lappet sammen en "spesifikasjon" i full fart basert på det Nvidia allerede har implementert? Jeg ser ikke hva AMD fortjener ære for her.

 

 

Liker at AMD kommer med hendig funksjonalitet, og prøver å nærme seg Nvidia på flere måter. TrueAudio kan jeg dog ikke se er en av dem.

 

For slik jeg kan se, så er det snakk om å flytte lydprosesseringen til skjermkortet. I så fall så høres det ut som skikkelig kjip teknologi som vi har sett lenge. For omtrent 6-7år siden så fikk jeg et lydkort med dedikert RAM og lydprosessor som står for lyd-prosesseringen, slik at CPUen slipper. Problemet var at det ga null og nix effekt. Hvorfor ikke? Fordi selv på den tiden var prosessorene for kraftige til å dra noe nytte av litt mindre last som uansett fordelte seg bra på de forskjellige kjernene.

 

En moderne prosessor i dag sitt største problem er i grunn programvaren selv, som ikke klarer å dele lasten likt over alle kjernene. Lyd er en av de tingene som lettere kan allokeres til andre kjerner som ikke jobber like tungt med grafikk og andre slike elementer i et spill. Og lyd krever heller ikke noe særlig uansett for en moderne prosessor.

 

Kort sagt, lydprosessering vil i realiteten ikke begrense hastigheten til CPU i særlig målbar og i hvert fall ikke merkbar grad. Ja selv selv i spill hvor prosessoren er flaskehals.

 

Men for all del, om prosessoren er svært svak, typisk dual-core, så kanskje det kan være en FPS eller to å tjene.

Her må jeg korrigere deg. Forskjellen på dedikert og integrert lydkort har ingenting med CPU-last å gjøre, heller ikke minnebruk. Hvis det er snakk om tilsvarende lydkontroller er det revnende likegyldig om den sitter direkte på hovedkortet eller om den er koblet til via PCIe-spor. Det er uansett snakk om en frittstående prosessor som kommuniserer med CPUen, aldri snakk om "software-emulering" av lyd i CPU (ihvertfall ikke i denne sammenheng). Hvis du leter opp blokkskjema for hovedkortet ditt vil du se en lang liste over ulike kontrollere som sitter der, blant annet lydkontroller, nettverkskontroller, SATA-kontroller, USB-kontroller osv.

 

Hvis du ser ulik CPU-last på ulike lydkort så skyldes det driverimplementasjonen. Integrert mot dedikert lydkort kan ikke sammenlignes med integrert grafikk, som i motsetning til overnevnte stjeler minnekapasitet og skaper store forsinkelser på minnebussen til CPUen.

 

Når det gjelder lydprosessering på GPU så tror jeg dette kan ha potensiale på sikt, ikke bare til spill men også til miksing av lyd. Det som virkelig hadde satt fart på noe slikt var om det ble standardisert ett CUDA-aktig språk som kunne programmere hele pipeline til GPUen, slik at GPUen kunne vært brukt til hva som helst. (og nei, OpenCL er ikke godt egnet til dette)

Lenke til kommentar

Jeg anntar dette er bare nor som nye skjermer med den nye displayport standarden vil kunne bruke da om jeg forstår det riktig?... Så det blir behov for ny skjerm likevel - bare ikke ekstra hardware i skjermen for å kunne bruke funksjonen. I så fall så regner jeg med at dette tar over for Gsync rimeig fort pga. kostnadshennsyn.

 

-Stigma

Lenke til kommentar

 

Kudos til AMD, lang nese til Nvidia.

Kudos til AMD fordi de har lappet sammen en "spesifikasjon" i full fart basert på det Nvidia allerede har implementert? Jeg ser ikke hva AMD fortjener ære for her.

 

 

Liker at AMD kommer med hendig funksjonalitet, og prøver å nærme seg Nvidia på flere måter. TrueAudio kan jeg dog ikke se er en av dem.

 

For slik jeg kan se, så er det snakk om å flytte lydprosesseringen til skjermkortet. I så fall så høres det ut som skikkelig kjip teknologi som vi har sett lenge. For omtrent 6-7år siden så fikk jeg et lydkort med dedikert RAM og lydprosessor som står for lyd-prosesseringen, slik at CPUen slipper. Problemet var at det ga null og nix effekt. Hvorfor ikke? Fordi selv på den tiden var prosessorene for kraftige til å dra noe nytte av litt mindre last som uansett fordelte seg bra på de forskjellige kjernene.

 

En moderne prosessor i dag sitt største problem er i grunn programvaren selv, som ikke klarer å dele lasten likt over alle kjernene. Lyd er en av de tingene som lettere kan allokeres til andre kjerner som ikke jobber like tungt med grafikk og andre slike elementer i et spill. Og lyd krever heller ikke noe særlig uansett for en moderne prosessor.

 

Kort sagt, lydprosessering vil i realiteten ikke begrense hastigheten til CPU i særlig målbar og i hvert fall ikke merkbar grad. Ja selv selv i spill hvor prosessoren er flaskehals.

 

Men for all del, om prosessoren er svært svak, typisk dual-core, så kanskje det kan være en FPS eller to å tjene.

Her må jeg korrigere deg. Forskjellen på dedikert og integrert lydkort har ingenting med CPU-last å gjøre, heller ikke minnebruk. Hvis det er snakk om tilsvarende lydkontroller er det revnende likegyldig om den sitter direkte på hovedkortet eller om den er koblet til via PCIe-spor. Det er uansett snakk om en frittstående prosessor som kommuniserer med CPUen, aldri snakk om "software-emulering" av lyd i CPU (ihvertfall ikke i denne sammenheng). Hvis du leter opp blokkskjema for hovedkortet ditt vil du se en lang liste over ulike kontrollere som sitter der, blant annet lydkontroller, nettverkskontroller, SATA-kontroller, USB-kontroller osv.

 

Hvis du ser ulik CPU-last på ulike lydkort så skyldes det driverimplementasjonen. Integrert mot dedikert lydkort kan ikke sammenlignes med integrert grafikk, som i motsetning til overnevnte stjeler minnekapasitet og skaper store forsinkelser på minnebussen til CPUen.

 

Når det gjelder lydprosessering på GPU så tror jeg dette kan ha potensiale på sikt, ikke bare til spill men også til miksing av lyd. Det som virkelig hadde satt fart på noe slikt var om det ble standardisert ett CUDA-aktig språk som kunne programmere hele pipeline til GPUen, slik at GPUen kunne vært brukt til hva som helst. (og nei, OpenCL er ikke godt egnet til dette)

Der tar du helt feil. Nividia sin g-sync standard fungerer ikke på samme måte sett fra et teknisk perspektiv. Greit nok at de har "tatt" ideen med variabel oppdateringsfrekvens i spill. Hvem bryr seg? Det er ikke ulovlig. Det som burde være ulovlig er å være en disippel for et firma enten amd eller nividia som kun ønsker å tjene penger på deg. AMD har også et bedre alternativ uten behov for overpriset utstyr (chip i skjermen), men det er ikke så viktig siden du er en sau i flokken som VIL BETALE MER!

  • Liker 1
Lenke til kommentar

 

 

Kudos til AMD, lang nese til Nvidia.

Kudos til AMD fordi de har lappet sammen en "spesifikasjon" i full fart basert på det Nvidia allerede har implementert? Jeg ser ikke hva AMD fortjener ære for her.

 

 

Liker at AMD kommer med hendig funksjonalitet, og prøver å nærme seg Nvidia på flere måter. TrueAudio kan jeg dog ikke se er en av dem.

 

For slik jeg kan se, så er det snakk om å flytte lydprosesseringen til skjermkortet. I så fall så høres det ut som skikkelig kjip teknologi som vi har sett lenge. For omtrent 6-7år siden så fikk jeg et lydkort med dedikert RAM og lydprosessor som står for lyd-prosesseringen, slik at CPUen slipper. Problemet var at det ga null og nix effekt. Hvorfor ikke? Fordi selv på den tiden var prosessorene for kraftige til å dra noe nytte av litt mindre last som uansett fordelte seg bra på de forskjellige kjernene.

 

En moderne prosessor i dag sitt største problem er i grunn programvaren selv, som ikke klarer å dele lasten likt over alle kjernene. Lyd er en av de tingene som lettere kan allokeres til andre kjerner som ikke jobber like tungt med grafikk og andre slike elementer i et spill. Og lyd krever heller ikke noe særlig uansett for en moderne prosessor.

 

Kort sagt, lydprosessering vil i realiteten ikke begrense hastigheten til CPU i særlig målbar og i hvert fall ikke merkbar grad. Ja selv selv i spill hvor prosessoren er flaskehals.

 

Men for all del, om prosessoren er svært svak, typisk dual-core, så kanskje det kan være en FPS eller to å tjene.

Her må jeg korrigere deg. Forskjellen på dedikert og integrert lydkort har ingenting med CPU-last å gjøre, heller ikke minnebruk. Hvis det er snakk om tilsvarende lydkontroller er det revnende likegyldig om den sitter direkte på hovedkortet eller om den er koblet til via PCIe-spor. Det er uansett snakk om en frittstående prosessor som kommuniserer med CPUen, aldri snakk om "software-emulering" av lyd i CPU (ihvertfall ikke i denne sammenheng). Hvis du leter opp blokkskjema for hovedkortet ditt vil du se en lang liste over ulike kontrollere som sitter der, blant annet lydkontroller, nettverkskontroller, SATA-kontroller, USB-kontroller osv.

 

Hvis du ser ulik CPU-last på ulike lydkort så skyldes det driverimplementasjonen. Integrert mot dedikert lydkort kan ikke sammenlignes med integrert grafikk, som i motsetning til overnevnte stjeler minnekapasitet og skaper store forsinkelser på minnebussen til CPUen.

 

Når det gjelder lydprosessering på GPU så tror jeg dette kan ha potensiale på sikt, ikke bare til spill men også til miksing av lyd. Det som virkelig hadde satt fart på noe slikt var om det ble standardisert ett CUDA-aktig språk som kunne programmere hele pipeline til GPUen, slik at GPUen kunne vært brukt til hva som helst. (og nei, OpenCL er ikke godt egnet til dette)

Der tar du helt feil. Nividia sin g-sync standard fungerer ikke på samme måte sett fra et teknisk perspektiv. Greit nok at de har "tatt" ideen med variabel oppdateringsfrekvens i spill. Hvem bryr seg? Det er ikke ulovlig. Det som burde være ulovlig er å være en disippel for et firma enten amd eller nividia som kun ønsker å tjene penger på deg. AMD har også et bedre alternativ uten behov for overpriset utstyr (chip i skjermen), men det er ikke så viktig siden du er en sau i flokken som VIL BETALE MER!
Men Fungerer Amd sin løsning bedre, eller like bra? Det er det vel bare Amd som vet til nå?
Lenke til kommentar

Der tar du helt feil. Nividia sin g-sync standard fungerer ikke på samme måte sett fra et teknisk perspektiv. Greit nok at de har "tatt" ideen med variabel oppdateringsfrekvens i spill. Hvem bryr seg? Det er ikke ulovlig. Det som burde være ulovlig er å være en disippel for et firma enten amd eller nividia som kun ønsker å tjene penger på deg. AMD har også et bedre alternativ uten behov for overpriset utstyr (chip i skjermen), men det er ikke så viktig siden du er en sau i flokken som VIL BETALE MER!

Dette er kunnskapsløst fra din side. Grunnen til at G-sync i dag krever en ekstra brikke er fordi dagens skjermbrikker ikke har innebygget støtte for å variere frekvensen på denne måten, så derfor har Nvidia laget en midlertidig løsning frem til neste revisjon brikker som får dette innebygget. Når de nye brikkene kommer så er den ekstra kostnaden innbakt i prisen, uavhengig av om det er freesync eller G-sync som brukes. Nvidia har brukt ressurser på å utvikle disse nye kretsene, og tilbyr en løsning frem til dette er innebygget som standard, det er bare rett og rimelig at de tar seg betalt, alle selskaper gjør det. At AMD prøver å få oppmerksomhet med å kalle teknologien "freesync" er bare ren PR. G-sync er forøvrig ikke nytt fra Nvidia, det har vært tilgjengelig en stund for sine profesjonelle produkter.
  • Liker 1
Lenke til kommentar

 

Der tar du helt feil. Nividia sin g-sync standard fungerer ikke på samme måte sett fra et teknisk perspektiv. Greit nok at de har "tatt" ideen med variabel oppdateringsfrekvens i spill. Hvem bryr seg? Det er ikke ulovlig. Det som burde være ulovlig er å være en disippel for et firma enten amd eller nividia som kun ønsker å tjene penger på deg. AMD har også et bedre alternativ uten behov for overpriset utstyr (chip i skjermen), men det er ikke så viktig siden du er en sau i flokken som VIL BETALE MER!

Dette er kunnskapsløst fra din side. Grunnen til at G-sync i dag krever en ekstra brikke er fordi dagens skjermbrikker ikke har innebygget støtte for å variere frekvensen på denne måten, så derfor har Nvidia laget en midlertidig løsning frem til neste revisjon brikker som får dette innebygget. Når de nye brikkene kommer så er den ekstra kostnaden innbakt i prisen, uavhengig av om det er freesync eller G-sync som brukes. Nvidia har brukt ressurser på å utvikle disse nye kretsene, og tilbyr en løsning frem til dette er innebygget som standard, det er bare rett og rimelig at de tar seg betalt, alle selskaper gjør det. At AMD prøver å få oppmerksomhet med å kalle teknologien "freesync" er bare ren PR. G-sync er forøvrig ikke nytt fra Nvidia, det har vært tilgjengelig en stund for sine profesjonelle produkter.

 

 

Det er da ikke ren PR, det ene er en åpen fri standard som alle kan implementere, det andre er en propritær nvidia-greia.

 

AtW

Lenke til kommentar

Har ikke opplevd noe riving eller sliting i bildet noen gang utenom når jeg har glemt å slå av dupliser skjermer. Er det noen annen grunn for å oppgradere til G-sync eller FreeSync?

Er meget fornøyd med min BenQ skjerm men den har ikke støtte for Displayport

Bump

Lenke til kommentar

 

Har ikke opplevd noe riving eller sliting i bildet noen gang utenom når jeg har glemt å slå av dupliser skjermer. Er det noen annen grunn for å oppgradere til G-sync eller FreeSync?

Er meget fornøyd med min BenQ skjerm men den har ikke støtte for Displayport

Bump

 

- Riving og sliting vil komme i tilfeller hvor du ikke har på V-sync.

- Hvis du har på V-sync, så vil du få noe høyere Input-lag, samt potensielt en del dårligere ytelse når maskinen ikke klarer å levere antall bilder i sekundet som tilsvarer skjermens oppdateringsfrekvens.

- Et siste alternativ er adaptiv V-sync, som vil skru av V-sync når maskinen ikke klarer å levere FPSen som trengs for å synce den med oppdaterignsfrekvensen til skjermen. Dermed får du ikke samme ytelsefallet, men vil til tider kunne få riving av bildet pga deaktivert V-sync.

 

Uten G-sync er du nødt til å velge mellom et av disse ondene. Hvis du ikke kjører V-sync og fortsatt ikke legger merke til rivingen, ja så ser jeg ingen grunn til å velge G-sync.

 

Hos meg er det litt spill-bestemt hva jeg foretrekker (har ikke G-sync). Raske spill -> Alltid V-sync skrudd av. Pene spill -> V-sync på.

Endret av Andrull
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...