ATWindsor Skrevet 14. mai 2014 Del Skrevet 14. mai 2014 Hvorfor blir Adaptive V-Sync standard på displayport som har begrensninger på oppdateringsfrekvens? På 1.2 som er standard på GTX 780 så er det maks 60hz på Displayporten. På 1.3 så er det 120hz og det også er jo for lite da fleste "gaming skjermer" faktisk har opptil 144hz og 240hz i dag. Så jeg ser ikke helt poenget her, hvorfor ikke gjøre dette på DVI som har ubegrenset med frekvenser. Hvis jeg ikke tar helt feil her så vil jo G-Sync fortsatt være bedre. DVI har da ikke ubegrenset refresh. AtW Lenke til kommentar
Avean Skrevet 14. mai 2014 Del Skrevet 14. mai 2014 Hvorfor blir Adaptive V-Sync standard på displayport som har begrensninger på oppdateringsfrekvens? På 1.2 som er standard på GTX 780 så er det maks 60hz på Displayporten. På 1.3 så er det 120hz og det også er jo for lite da fleste "gaming skjermer" faktisk har opptil 144hz og 240hz i dag. Så jeg ser ikke helt poenget her, hvorfor ikke gjøre dette på DVI som har ubegrenset med frekvenser. Hvis jeg ikke tar helt feil her så vil jo G-Sync fortsatt være bedre. DVI har da ikke ubegrenset refresh. AtW Du har ingen begrensninger i DVI-interfacet men begrensninger i båndbredden i kabelen og så må du selvsagt ha en skjerm som takler høyere oppdateringsfrekvens Avean Lenke til kommentar
ATWindsor Skrevet 14. mai 2014 Del Skrevet 14. mai 2014 Hvorfor blir Adaptive V-Sync standard på displayport som har begrensninger på oppdateringsfrekvens? På 1.2 som er standard på GTX 780 så er det maks 60hz på Displayporten. På 1.3 så er det 120hz og det også er jo for lite da fleste "gaming skjermer" faktisk har opptil 144hz og 240hz i dag. Så jeg ser ikke helt poenget her, hvorfor ikke gjøre dette på DVI som har ubegrenset med frekvenser. Hvis jeg ikke tar helt feil her så vil jo G-Sync fortsatt være bedre. DVI har da ikke ubegrenset refresh. AtW Du har ingen begrensninger i DVI-interfacet men begrensninger i båndbredden i kabelen og så må du selvsagt ha en skjerm som takler høyere oppdateringsfrekvens Avean Begrensingen i båndbredde gjør at begrensningen blir minst like reell som i display-port i det virkelige liv. AtW Lenke til kommentar
Avean Skrevet 14. mai 2014 Del Skrevet 14. mai 2014 Hvorfor blir Adaptive V-Sync standard på displayport som har begrensninger på oppdateringsfrekvens? På 1.2 som er standard på GTX 780 så er det maks 60hz på Displayporten. På 1.3 så er det 120hz og det også er jo for lite da fleste "gaming skjermer" faktisk har opptil 144hz og 240hz i dag. Så jeg ser ikke helt poenget her, hvorfor ikke gjøre dette på DVI som har ubegrenset med frekvenser. Hvis jeg ikke tar helt feil her så vil jo G-Sync fortsatt være bedre. DVI har da ikke ubegrenset refresh. AtW Du har ingen begrensninger i DVI-interfacet men begrensninger i båndbredden i kabelen og så må du selvsagt ha en skjerm som takler høyere oppdateringsfrekvens Avean Begrensingen i båndbredde gjør at begrensningen blir minst like reell som i display-port i det virkelige liv. AtW Ja du kan vel ikke ha hva som helst av oppdateringsfrekvens siden du vil møte på en flaskehals i båndbredden uansett med DVI, men DisplayPort portene i dag er jo bare 1.2 på skjermkortene og de stopper på 60hz. Det gjør det ikke på DVI, der går det faktisk helt til 144hz ved 1080p oppløsning Avean Lenke til kommentar
ATWindsor Skrevet 14. mai 2014 Del Skrevet 14. mai 2014 Hvorfor blir Adaptive V-Sync standard på displayport som har begrensninger på oppdateringsfrekvens? På 1.2 som er standard på GTX 780 så er det maks 60hz på Displayporten. På 1.3 så er det 120hz og det også er jo for lite da fleste "gaming skjermer" faktisk har opptil 144hz og 240hz i dag. Så jeg ser ikke helt poenget her, hvorfor ikke gjøre dette på DVI som har ubegrenset med frekvenser. Hvis jeg ikke tar helt feil her så vil jo G-Sync fortsatt være bedre. DVI har da ikke ubegrenset refresh. AtW Du har ingen begrensninger i DVI-interfacet men begrensninger i båndbredden i kabelen og så må du selvsagt ha en skjerm som takler høyere oppdateringsfrekvens Avean Begrensingen i båndbredde gjør at begrensningen blir minst like reell som i display-port i det virkelige liv. AtW Ja du kan vel ikke ha hva som helst av oppdateringsfrekvens siden du vil møte på en flaskehals i båndbredden uansett med DVI, men DisplayPort portene i dag er jo bare 1.2 på skjermkortene og de stopper på 60hz. Det gjør det ikke på DVI, der går det faktisk helt til 144hz ved 1080p oppløsning Avean Pass på å skille mellom hva som er begrensningen i display-port-standarden, og hva skjermkortleverandørene har implementert. AtW 1 Lenke til kommentar
Andrull Skrevet 14. mai 2014 Del Skrevet 14. mai 2014 Advantages over DVI, VGA and FPD-Link17.28 Gbit/s of effective video bandwidth, enough for four simultaneous 1080p60 displays (CEA-861 timings), stereoscopic 2,560 × 1,600 × 30 bit @120 Hz (CVT-R timings), or 4K UHDTV @60 Hz[note 1] DisplayPort DP 1.2 burde vel da strengt talt ha mulighet til 1080p @ 240Hz. Nå vet jeg ikke hva som skjer om man går utenfor hva skjermkortprodusenten har implementert støtte for. Om det er som med DVI at man kan gå ut av spesifikasjonene, og kjøre på til de grensene som DVI klarer. Ja man kan selv gå utenfor den maks spesifiserte båndbredden, som på et punkt vil gjøre at bildet ikke lengre er stabil. Lenke til kommentar
Avean Skrevet 14. mai 2014 Del Skrevet 14. mai 2014 (endret) Hvorfor blir Adaptive V-Sync standard på displayport som har begrensninger på oppdateringsfrekvens? På 1.2 som er standard på GTX 780 så er det maks 60hz på Displayporten. På 1.3 så er det 120hz og det også er jo for lite da fleste "gaming skjermer" faktisk har opptil 144hz og 240hz i dag. Så jeg ser ikke helt poenget her, hvorfor ikke gjøre dette på DVI som har ubegrenset med frekvenser. Hvis jeg ikke tar helt feil her så vil jo G-Sync fortsatt være bedre. DVI har da ikke ubegrenset refresh. AtW Du har ingen begrensninger i DVI-interfacet men begrensninger i båndbredden i kabelen og så må du selvsagt ha en skjerm som takler høyere oppdateringsfrekvens Avean Begrensingen i båndbredde gjør at begrensningen blir minst like reell som i display-port i det virkelige liv. AtW Ja du kan vel ikke ha hva som helst av oppdateringsfrekvens siden du vil møte på en flaskehals i båndbredden uansett med DVI, men DisplayPort portene i dag er jo bare 1.2 på skjermkortene og de stopper på 60hz. Det gjør det ikke på DVI, der går det faktisk helt til 144hz ved 1080p oppløsning Avean Pass på å skille mellom hva som er begrensningen i display-port-standarden, og hva skjermkortleverandørene har implementert. AtW Jo men der har du problemet jeg vil fram til. Da må vi vente på nyere skjermkort for å ta i bruk Displayport 1.3 eller noe annet som gir oss høyere enn 60hz på displayport interfacet. Hadde de implementert dette som standard på DVI i stedet så kunne jeg med et skjermkort til 4000kr brukt dette nå, istedenfor å vente på nyere skjermkort. Det jeg prøver å få fram her Edit: Hvis det Andrull skriver her så er all good, da er jeg veldig fornøyd Men jeg har lest at displayport ikke har støtte for mer enn 60hz på 1080p men. Kanskje jeg tar feil. Endret 14. mai 2014 av Avean Lenke til kommentar
Andrull Skrevet 14. mai 2014 Del Skrevet 14. mai 2014 Du har jo f.eks Asus PG278Q, som via DisplayPort kjører 2560x1440 @ 120Hz, så det med 60Hz må i så fall være feil. http://www.anandtech.com/show/7627/asus-at-ces-2014 Lenke til kommentar
ATWindsor Skrevet 14. mai 2014 Del Skrevet 14. mai 2014 (endret) Nei, du kunne ikke implementert det nå, fordi dette krever en oppdatering av standarden uansett, med påfølgende oppdatering av interfacet for de forskjellige leverandørene. De må uansett implmentere dette, og da kan de i samme slengen støtte mer enn 60 Hz i sin implementasjon om de kunstig begrenser dette i dag, du kunne ikke brukt dette over DVI med ett eldre skjermkort i den formen dette kommer. AtW Endret 14. mai 2014 av ATWindsor Lenke til kommentar
Uxzuigal Skrevet 14. mai 2014 Del Skrevet 14. mai 2014 Liker at AMD hamler litt opp med nVidia om dagen, TrueAudio er fantastisk. Lenke til kommentar
Andrull Skrevet 14. mai 2014 Del Skrevet 14. mai 2014 Liker at AMD kommer med hendig funksjonalitet, og prøver å nærme seg Nvidia på flere måter. TrueAudio kan jeg dog ikke se er en av dem. For slik jeg kan se, så er det snakk om å flytte lydprosesseringen til skjermkortet. I så fall så høres det ut som skikkelig kjip teknologi som vi har sett lenge. For omtrent 6-7år siden så fikk jeg et lydkort med dedikert RAM og lydprosessor som står for lyd-prosesseringen, slik at CPUen slipper. Problemet var at det ga null og nix effekt. Hvorfor ikke? Fordi selv på den tiden var prosessorene for kraftige til å dra noe nytte av litt mindre last som uansett fordelte seg bra på de forskjellige kjernene. En moderne prosessor i dag sitt største problem er i grunn programvaren selv, som ikke klarer å dele lasten likt over alle kjernene. Lyd er en av de tingene som lettere kan allokeres til andre kjerner som ikke jobber like tungt med grafikk og andre slike elementer i et spill. Og lyd krever heller ikke noe særlig uansett for en moderne prosessor. Kort sagt, lydprosessering vil i realiteten ikke begrense hastigheten til CPU i særlig målbar og i hvert fall ikke merkbar grad. Ja selv selv i spill hvor prosessoren er flaskehals. Men for all del, om prosessoren er svært svak, typisk dual-core, så kanskje det kan være en FPS eller to å tjene. Lenke til kommentar
ATWindsor Skrevet 14. mai 2014 Del Skrevet 14. mai 2014 Det er en tosidig sak her, problemet med lyd i spill i dag er at det er elendig implementert, TrueAudio fører kanskje til mere fokus på en skikkelig implementasjon. Videre så er denne dårlige implementeringen en av grunnene til at det krever lite, la oss si man vil ha real-time ray-tracing, det er ikke nødvendigvis så billig for CPUen. AtW Lenke til kommentar
efikkan Skrevet 15. mai 2014 Del Skrevet 15. mai 2014 Kudos til AMD, lang nese til Nvidia.Kudos til AMD fordi de har lappet sammen en "spesifikasjon" i full fart basert på det Nvidia allerede har implementert? Jeg ser ikke hva AMD fortjener ære for her. Liker at AMD kommer med hendig funksjonalitet, og prøver å nærme seg Nvidia på flere måter. TrueAudio kan jeg dog ikke se er en av dem. For slik jeg kan se, så er det snakk om å flytte lydprosesseringen til skjermkortet. I så fall så høres det ut som skikkelig kjip teknologi som vi har sett lenge. For omtrent 6-7år siden så fikk jeg et lydkort med dedikert RAM og lydprosessor som står for lyd-prosesseringen, slik at CPUen slipper. Problemet var at det ga null og nix effekt. Hvorfor ikke? Fordi selv på den tiden var prosessorene for kraftige til å dra noe nytte av litt mindre last som uansett fordelte seg bra på de forskjellige kjernene. En moderne prosessor i dag sitt største problem er i grunn programvaren selv, som ikke klarer å dele lasten likt over alle kjernene. Lyd er en av de tingene som lettere kan allokeres til andre kjerner som ikke jobber like tungt med grafikk og andre slike elementer i et spill. Og lyd krever heller ikke noe særlig uansett for en moderne prosessor. Kort sagt, lydprosessering vil i realiteten ikke begrense hastigheten til CPU i særlig målbar og i hvert fall ikke merkbar grad. Ja selv selv i spill hvor prosessoren er flaskehals. Men for all del, om prosessoren er svært svak, typisk dual-core, så kanskje det kan være en FPS eller to å tjene. Her må jeg korrigere deg. Forskjellen på dedikert og integrert lydkort har ingenting med CPU-last å gjøre, heller ikke minnebruk. Hvis det er snakk om tilsvarende lydkontroller er det revnende likegyldig om den sitter direkte på hovedkortet eller om den er koblet til via PCIe-spor. Det er uansett snakk om en frittstående prosessor som kommuniserer med CPUen, aldri snakk om "software-emulering" av lyd i CPU (ihvertfall ikke i denne sammenheng). Hvis du leter opp blokkskjema for hovedkortet ditt vil du se en lang liste over ulike kontrollere som sitter der, blant annet lydkontroller, nettverkskontroller, SATA-kontroller, USB-kontroller osv. Hvis du ser ulik CPU-last på ulike lydkort så skyldes det driverimplementasjonen. Integrert mot dedikert lydkort kan ikke sammenlignes med integrert grafikk, som i motsetning til overnevnte stjeler minnekapasitet og skaper store forsinkelser på minnebussen til CPUen. Når det gjelder lydprosessering på GPU så tror jeg dette kan ha potensiale på sikt, ikke bare til spill men også til miksing av lyd. Det som virkelig hadde satt fart på noe slikt var om det ble standardisert ett CUDA-aktig språk som kunne programmere hele pipeline til GPUen, slik at GPUen kunne vært brukt til hva som helst. (og nei, OpenCL er ikke godt egnet til dette) Lenke til kommentar
Stigma Skrevet 15. mai 2014 Del Skrevet 15. mai 2014 Jeg anntar dette er bare nor som nye skjermer med den nye displayport standarden vil kunne bruke da om jeg forstår det riktig?... Så det blir behov for ny skjerm likevel - bare ikke ekstra hardware i skjermen for å kunne bruke funksjonen. I så fall så regner jeg med at dette tar over for Gsync rimeig fort pga. kostnadshennsyn. -Stigma Lenke til kommentar
spots Skrevet 15. mai 2014 Del Skrevet 15. mai 2014 Kudos til AMD, lang nese til Nvidia.Kudos til AMD fordi de har lappet sammen en "spesifikasjon" i full fart basert på det Nvidia allerede har implementert? Jeg ser ikke hva AMD fortjener ære for her. Liker at AMD kommer med hendig funksjonalitet, og prøver å nærme seg Nvidia på flere måter. TrueAudio kan jeg dog ikke se er en av dem. For slik jeg kan se, så er det snakk om å flytte lydprosesseringen til skjermkortet. I så fall så høres det ut som skikkelig kjip teknologi som vi har sett lenge. For omtrent 6-7år siden så fikk jeg et lydkort med dedikert RAM og lydprosessor som står for lyd-prosesseringen, slik at CPUen slipper. Problemet var at det ga null og nix effekt. Hvorfor ikke? Fordi selv på den tiden var prosessorene for kraftige til å dra noe nytte av litt mindre last som uansett fordelte seg bra på de forskjellige kjernene. En moderne prosessor i dag sitt største problem er i grunn programvaren selv, som ikke klarer å dele lasten likt over alle kjernene. Lyd er en av de tingene som lettere kan allokeres til andre kjerner som ikke jobber like tungt med grafikk og andre slike elementer i et spill. Og lyd krever heller ikke noe særlig uansett for en moderne prosessor. Kort sagt, lydprosessering vil i realiteten ikke begrense hastigheten til CPU i særlig målbar og i hvert fall ikke merkbar grad. Ja selv selv i spill hvor prosessoren er flaskehals. Men for all del, om prosessoren er svært svak, typisk dual-core, så kanskje det kan være en FPS eller to å tjene. Her må jeg korrigere deg. Forskjellen på dedikert og integrert lydkort har ingenting med CPU-last å gjøre, heller ikke minnebruk. Hvis det er snakk om tilsvarende lydkontroller er det revnende likegyldig om den sitter direkte på hovedkortet eller om den er koblet til via PCIe-spor. Det er uansett snakk om en frittstående prosessor som kommuniserer med CPUen, aldri snakk om "software-emulering" av lyd i CPU (ihvertfall ikke i denne sammenheng). Hvis du leter opp blokkskjema for hovedkortet ditt vil du se en lang liste over ulike kontrollere som sitter der, blant annet lydkontroller, nettverkskontroller, SATA-kontroller, USB-kontroller osv. Hvis du ser ulik CPU-last på ulike lydkort så skyldes det driverimplementasjonen. Integrert mot dedikert lydkort kan ikke sammenlignes med integrert grafikk, som i motsetning til overnevnte stjeler minnekapasitet og skaper store forsinkelser på minnebussen til CPUen. Når det gjelder lydprosessering på GPU så tror jeg dette kan ha potensiale på sikt, ikke bare til spill men også til miksing av lyd. Det som virkelig hadde satt fart på noe slikt var om det ble standardisert ett CUDA-aktig språk som kunne programmere hele pipeline til GPUen, slik at GPUen kunne vært brukt til hva som helst. (og nei, OpenCL er ikke godt egnet til dette) Der tar du helt feil. Nividia sin g-sync standard fungerer ikke på samme måte sett fra et teknisk perspektiv. Greit nok at de har "tatt" ideen med variabel oppdateringsfrekvens i spill. Hvem bryr seg? Det er ikke ulovlig. Det som burde være ulovlig er å være en disippel for et firma enten amd eller nividia som kun ønsker å tjene penger på deg. AMD har også et bedre alternativ uten behov for overpriset utstyr (chip i skjermen), men det er ikke så viktig siden du er en sau i flokken som VIL BETALE MER! 1 Lenke til kommentar
Nizzen Skrevet 15. mai 2014 Del Skrevet 15. mai 2014 Kudos til AMD, lang nese til Nvidia.Kudos til AMD fordi de har lappet sammen en "spesifikasjon" i full fart basert på det Nvidia allerede har implementert? Jeg ser ikke hva AMD fortjener ære for her. Liker at AMD kommer med hendig funksjonalitet, og prøver å nærme seg Nvidia på flere måter. TrueAudio kan jeg dog ikke se er en av dem. For slik jeg kan se, så er det snakk om å flytte lydprosesseringen til skjermkortet. I så fall så høres det ut som skikkelig kjip teknologi som vi har sett lenge. For omtrent 6-7år siden så fikk jeg et lydkort med dedikert RAM og lydprosessor som står for lyd-prosesseringen, slik at CPUen slipper. Problemet var at det ga null og nix effekt. Hvorfor ikke? Fordi selv på den tiden var prosessorene for kraftige til å dra noe nytte av litt mindre last som uansett fordelte seg bra på de forskjellige kjernene. En moderne prosessor i dag sitt største problem er i grunn programvaren selv, som ikke klarer å dele lasten likt over alle kjernene. Lyd er en av de tingene som lettere kan allokeres til andre kjerner som ikke jobber like tungt med grafikk og andre slike elementer i et spill. Og lyd krever heller ikke noe særlig uansett for en moderne prosessor. Kort sagt, lydprosessering vil i realiteten ikke begrense hastigheten til CPU i særlig målbar og i hvert fall ikke merkbar grad. Ja selv selv i spill hvor prosessoren er flaskehals. Men for all del, om prosessoren er svært svak, typisk dual-core, så kanskje det kan være en FPS eller to å tjene. Her må jeg korrigere deg. Forskjellen på dedikert og integrert lydkort har ingenting med CPU-last å gjøre, heller ikke minnebruk. Hvis det er snakk om tilsvarende lydkontroller er det revnende likegyldig om den sitter direkte på hovedkortet eller om den er koblet til via PCIe-spor. Det er uansett snakk om en frittstående prosessor som kommuniserer med CPUen, aldri snakk om "software-emulering" av lyd i CPU (ihvertfall ikke i denne sammenheng). Hvis du leter opp blokkskjema for hovedkortet ditt vil du se en lang liste over ulike kontrollere som sitter der, blant annet lydkontroller, nettverkskontroller, SATA-kontroller, USB-kontroller osv. Hvis du ser ulik CPU-last på ulike lydkort så skyldes det driverimplementasjonen. Integrert mot dedikert lydkort kan ikke sammenlignes med integrert grafikk, som i motsetning til overnevnte stjeler minnekapasitet og skaper store forsinkelser på minnebussen til CPUen. Når det gjelder lydprosessering på GPU så tror jeg dette kan ha potensiale på sikt, ikke bare til spill men også til miksing av lyd. Det som virkelig hadde satt fart på noe slikt var om det ble standardisert ett CUDA-aktig språk som kunne programmere hele pipeline til GPUen, slik at GPUen kunne vært brukt til hva som helst. (og nei, OpenCL er ikke godt egnet til dette) Der tar du helt feil. Nividia sin g-sync standard fungerer ikke på samme måte sett fra et teknisk perspektiv. Greit nok at de har "tatt" ideen med variabel oppdateringsfrekvens i spill. Hvem bryr seg? Det er ikke ulovlig. Det som burde være ulovlig er å være en disippel for et firma enten amd eller nividia som kun ønsker å tjene penger på deg. AMD har også et bedre alternativ uten behov for overpriset utstyr (chip i skjermen), men det er ikke så viktig siden du er en sau i flokken som VIL BETALE MER!Men Fungerer Amd sin løsning bedre, eller like bra? Det er det vel bare Amd som vet til nå? Lenke til kommentar
efikkan Skrevet 15. mai 2014 Del Skrevet 15. mai 2014 Der tar du helt feil. Nividia sin g-sync standard fungerer ikke på samme måte sett fra et teknisk perspektiv. Greit nok at de har "tatt" ideen med variabel oppdateringsfrekvens i spill. Hvem bryr seg? Det er ikke ulovlig. Det som burde være ulovlig er å være en disippel for et firma enten amd eller nividia som kun ønsker å tjene penger på deg. AMD har også et bedre alternativ uten behov for overpriset utstyr (chip i skjermen), men det er ikke så viktig siden du er en sau i flokken som VIL BETALE MER!Dette er kunnskapsløst fra din side. Grunnen til at G-sync i dag krever en ekstra brikke er fordi dagens skjermbrikker ikke har innebygget støtte for å variere frekvensen på denne måten, så derfor har Nvidia laget en midlertidig løsning frem til neste revisjon brikker som får dette innebygget. Når de nye brikkene kommer så er den ekstra kostnaden innbakt i prisen, uavhengig av om det er freesync eller G-sync som brukes. Nvidia har brukt ressurser på å utvikle disse nye kretsene, og tilbyr en løsning frem til dette er innebygget som standard, det er bare rett og rimelig at de tar seg betalt, alle selskaper gjør det. At AMD prøver å få oppmerksomhet med å kalle teknologien "freesync" er bare ren PR. G-sync er forøvrig ikke nytt fra Nvidia, det har vært tilgjengelig en stund for sine profesjonelle produkter. 1 Lenke til kommentar
ATWindsor Skrevet 15. mai 2014 Del Skrevet 15. mai 2014 Der tar du helt feil. Nividia sin g-sync standard fungerer ikke på samme måte sett fra et teknisk perspektiv. Greit nok at de har "tatt" ideen med variabel oppdateringsfrekvens i spill. Hvem bryr seg? Det er ikke ulovlig. Det som burde være ulovlig er å være en disippel for et firma enten amd eller nividia som kun ønsker å tjene penger på deg. AMD har også et bedre alternativ uten behov for overpriset utstyr (chip i skjermen), men det er ikke så viktig siden du er en sau i flokken som VIL BETALE MER!Dette er kunnskapsløst fra din side. Grunnen til at G-sync i dag krever en ekstra brikke er fordi dagens skjermbrikker ikke har innebygget støtte for å variere frekvensen på denne måten, så derfor har Nvidia laget en midlertidig løsning frem til neste revisjon brikker som får dette innebygget. Når de nye brikkene kommer så er den ekstra kostnaden innbakt i prisen, uavhengig av om det er freesync eller G-sync som brukes. Nvidia har brukt ressurser på å utvikle disse nye kretsene, og tilbyr en løsning frem til dette er innebygget som standard, det er bare rett og rimelig at de tar seg betalt, alle selskaper gjør det. At AMD prøver å få oppmerksomhet med å kalle teknologien "freesync" er bare ren PR. G-sync er forøvrig ikke nytt fra Nvidia, det har vært tilgjengelig en stund for sine profesjonelle produkter. Det er da ikke ren PR, det ene er en åpen fri standard som alle kan implementere, det andre er en propritær nvidia-greia. AtW Lenke til kommentar
TheKims Skrevet 16. mai 2014 Del Skrevet 16. mai 2014 Har ikke opplevd noe riving eller sliting i bildet noen gang utenom når jeg har glemt å slå av dupliser skjermer. Er det noen annen grunn for å oppgradere til G-sync eller FreeSync? Er meget fornøyd med min BenQ skjerm men den har ikke støtte for Displayport Bump Lenke til kommentar
Andrull Skrevet 16. mai 2014 Del Skrevet 16. mai 2014 (endret) Har ikke opplevd noe riving eller sliting i bildet noen gang utenom når jeg har glemt å slå av dupliser skjermer. Er det noen annen grunn for å oppgradere til G-sync eller FreeSync? Er meget fornøyd med min BenQ skjerm men den har ikke støtte for Displayport Bump - Riving og sliting vil komme i tilfeller hvor du ikke har på V-sync. - Hvis du har på V-sync, så vil du få noe høyere Input-lag, samt potensielt en del dårligere ytelse når maskinen ikke klarer å levere antall bilder i sekundet som tilsvarer skjermens oppdateringsfrekvens. - Et siste alternativ er adaptiv V-sync, som vil skru av V-sync når maskinen ikke klarer å levere FPSen som trengs for å synce den med oppdaterignsfrekvensen til skjermen. Dermed får du ikke samme ytelsefallet, men vil til tider kunne få riving av bildet pga deaktivert V-sync. Uten G-sync er du nødt til å velge mellom et av disse ondene. Hvis du ikke kjører V-sync og fortsatt ikke legger merke til rivingen, ja så ser jeg ingen grunn til å velge G-sync. Hos meg er det litt spill-bestemt hva jeg foretrekker (har ikke G-sync). Raske spill -> Alltid V-sync skrudd av. Pene spill -> V-sync på. Endret 16. mai 2014 av Andrull Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå