Nilsen Skrevet 5. november 2013 Del Skrevet 5. november 2013 Med G-Sync vil Nvidia bedre opplevelsen din betraktelig.Guide: Nvidia G-Sync (Ekstra) Lenke til kommentar
blinc Skrevet 5. november 2013 Del Skrevet 5. november 2013 Bra artikkel. Men jeg savner litt informasjon vedrørende SLI + Gsync 2 Lenke til kommentar
Simen1 Skrevet 5. november 2013 Del Skrevet 5. november 2013 Lurer på hvor lang tid det tar før AMD kommer med noe tilsvarende, eller blir de hindret av Nvidias patenter? Lenke til kommentar
Prusk Skrevet 5. november 2013 Del Skrevet 5. november 2013 For en som ikke er helt med på teknologien bak dette, det kommer kanskje frem i artikkelen for de som har greie på slikt. Er det slik å forstå at skjermen min sannsynligvis støtter dette allerede gjennom LVDS? Kan jeg kjøpe en ny skjerm i dag som senere kan få støtte for dette? Har nVidia plantet dette chippen i forskjellige monitorer i en årrekke allerede? Lenke til kommentar
CWH Skrevet 5. november 2013 Del Skrevet 5. november 2013 Lurer på hvor lang tid det tar før AMD kommer med noe tilsvarende, eller blir de hindret av Nvidias patenter? Som jeg forstår er det forskjeller konstruksjonen i den nåværende generasjonen av skjermkort som gjør at AMD ikke uten videre kan gjøre tilsvarende. Lenke til kommentar
blinc Skrevet 5. november 2013 Del Skrevet 5. november 2013 For en som ikke er helt med på teknologien bak dette, det kommer kanskje frem i artikkelen for de som har greie på slikt. Er det slik å forstå at skjermen min sannsynligvis støtter dette allerede gjennom LVDS? Kan jeg kjøpe en ny skjerm i dag som senere kan få støtte for dette? Har nVidia plantet dette chippen i forskjellige monitorer i en årrekke allerede? Dette er ny teknologi som ikke finnes i markedet fra før. Skjermer som støtter Gsync skal dukke opp før Jul. Det finnes riktignok en Asus modell allerede du kan modde. Lenke til kommentar
Prusk Skrevet 5. november 2013 Del Skrevet 5. november 2013 Antok det ikke fantes i markedet fra før, men så stod det dette med LVDS i artikkelen (som skjermer flest bruker i dag). Men da er det bare at overføringsteknologien eller tilkoblingen stort sett er standard allerede, det man mangler er dette chippen i skjermene? Antar jeg får vente til litt over jul med å kaste meg over dette. Har en skjerm som snart er moden for de evige jaktmarker. Eller videresalg. Eller hvor man nå gjør av dataskjermer. Lenke til kommentar
Nilsen Skrevet 5. november 2013 Forfatter Del Skrevet 5. november 2013 Antok det ikke fantes i markedet fra før, men så stod det dette med LVDS i artikkelen (som skjermer flest bruker i dag). Men da er det bare at overføringsteknologien eller tilkoblingen stort sett er standard allerede, det man mangler er dette chippen i skjermene? Antar jeg får vente til litt over jul med å kaste meg over dette. Har en skjerm som snart er moden for de evige jaktmarker. Eller videresalg. Eller hvor man nå gjør av dataskjermer. Hei, LVDS er en overføringsstandard som mange skjermer bruker, og som må være i skjermen for at det skal være mulig å bruke den med G-Sync. G-Sync er imidlertid en egen chip som må settes inn og tilpasses hver skjerm. Som Blinc skriver finnes det én skjerm fra Asus i dag som har G-Sync, men du må ha både LVDS og den dedikerte G-Sync-modulen for å få G-Sync :-) 1 Lenke til kommentar
Prusk Skrevet 5. november 2013 Del Skrevet 5. november 2013 Hei, og takk for kort og grei forklaring. Nå er det bare å få inn dette som et søkekriterie i prisguiden, så vi som faller av tekno-lasset også kan finne disse skjermene etterhvert som de kommer på markedet. Lenke til kommentar
Nilsen Skrevet 5. november 2013 Forfatter Del Skrevet 5. november 2013 Hei, og takk for kort og grei forklaring. Nå er det bare å få inn dette som et søkekriterie i prisguiden, så vi som faller av tekno-lasset også kan finne disse skjermene etterhvert som de kommer på markedet. Godt forslag - det skal vi få inn. Lenke til kommentar
Gjest Slettet-Pqy3rC Skrevet 5. november 2013 Del Skrevet 5. november 2013 Så lenge skjermkortet vet oppdateringsfrekvensen til skjermen forstår jeg fortsatt ikke, på tross av artikkelen, at nVidia må ha en fysisk brikke inn i skjermen. Metoden: Draw -> buffer -> Screen burde funket. (mat skjermen med komplette bilder i fast takt, dvs. 'g-sync' i skjermkortet). På meg virker det nå mer som en greie for å "tvinge" folk til å kjøpe/bruke nVidia skjermkort på neste maskin når de sitter med en nVidia "tilpasset" skjerm. Lenke til kommentar
blinc Skrevet 5. november 2013 Del Skrevet 5. november 2013 (endret) Brikken må i skjermen pga V-blank.Metoden din er vsync og finnes som du sikkert vet allerede. Dvs et skjermkort kan ikke nødvendigvis levere et bilde i fast takt. Nettopp derfor behovet for Gsync er der. Endret 5. november 2013 av blinc 1 Lenke til kommentar
jonny Skrevet 5. november 2013 Del Skrevet 5. november 2013 Så lenge skjermkortet vet oppdateringsfrekvensen til skjermen forstår jeg fortsatt ikke, på tross av artikkelen, at nVidia må ha en fysisk brikke inn i skjermen. Metoden: Draw -> buffer -> Screen burde funket. (mat skjermen med komplette bilder i fast takt, dvs. 'g-sync' i skjermkortet). På meg virker det nå mer som en greie for å "tvinge" folk til å kjøpe/bruke nVidia skjermkort på neste maskin når de sitter med en nVidia "tilpasset" skjerm. Det du beskriver er vsync, som er forklart i artikkelen. Problemet med dette er at hvis skjermkortet ikke klarer å generere bilder raskt nok, vil det oppstå stutter/lag (som også ble forklart i artikkelen). Man må altså redusere grafikkinnstillingene helt til skjermkortet klarer å produsere minimum 60 bilder i sekundet (hvis skjermkortet er satt til å levere 60 Hz til skjermen) til enhver tid for å unngå dette. Dermed vil skjermkortet "hvile" 1000/60 - (tid-det-tok-å-generere-skjermbildet) ms hver gang det har generert et bilde. Med G-Sync vil skjermkortet generere bilder og levere dem til skjermen umiddelbart uten "hviletid" (du får dermed utnyttet skjermkortet maksimalt). 2 Lenke til kommentar
xSotte Skrevet 5. november 2013 Del Skrevet 5. november 2013 Lurer på hvor lang tid det tar før AMD kommer med noe tilsvarende, eller blir de hindret av Nvidias patenter? Sitat fra en HW.no artikkel med Tom Petersen. http://www.hardware.no/artikler/mot-mannen-som-kan-ha-endret-spillopplevelsen-din/153511 "Det er vanskelig å argumentere for at du ikke trenger G-Sync. Jeg vet ikke hva AMD vil gjøre, men jeg kan ikke se for meg at de vil ignorere dette, sier han. – Og dette vil ikke fungere med AMD-kort, ikke til å begynne med. Og mest sannsynlig ikke på lenge, for de har mye å gjøre på skjermkort-siden. Det er heller ikke klart for meg hvordan de kan gjøre det uten å bryte våre patenter, sier han." Ikke et klart svar, men mest sannsynlig ikke på en stund. Lenke til kommentar
coffeeh Skrevet 5. november 2013 Del Skrevet 5. november 2013 Bra artikkel. Men jeg savner litt informasjon vedrørende SLI + Gsync nvidia g-sync FAQ: http://www.geforce.com/hardware/technology/g-sync/faq Q: How does NVIDIA G-SYNC work with SLI? A: The NVIDA GPU connected to the display manages G-SYNC. SLI GPU setups work seamlessly with G-SYNC displays. Så det burde ikke være noen spesielle problemer med g-sync og sli :-) Lenke til kommentar
Norish Skrevet 5. november 2013 Del Skrevet 5. november 2013 Må si at dette var en virkelig god artikkel som jeg lærte veldig mye av! Lenke til kommentar
jstende Skrevet 13. november 2013 Del Skrevet 13. november 2013 Vil det si at man ikke kan få mer enn 60 FPS i et spill, hvis skjermen har 60 Hz? Man merker faktisk forskjell mellom 60 og 120 fps på en 60 Hz skjerm. Eller er det faktisk dette problemet som elimineres, slik at man får utnyttet det fulle potensialet? Lenke til kommentar
blinc Skrevet 13. november 2013 Del Skrevet 13. november 2013 ? En 60hz skjerm gjenoppfrisker bildepanelet 60 ganger i sekundet, altså den kan maks vise 60 nye bilder per sekund uansett. Lenke til kommentar
arihoell Skrevet 21. desember 2013 Del Skrevet 21. desember 2013 Hei. Jeg har 2stk GTX 760 i SLI som gir bilde til Projector Har jeg noen mulighet til å skaffe meg G-sync brikke og sette mellom?? Lenke til kommentar
Elgen-Hansi Skrevet 21. desember 2013 Del Skrevet 21. desember 2013 Vil det si at man ikke kan få mer enn 60 FPS i et spill, hvis skjermen har 60 Hz? Man merker faktisk forskjell mellom 60 og 120 fps på en 60 Hz skjerm. Eller er det faktisk dette problemet som elimineres, slik at man får utnyttet det fulle potensialet? Med full synkronisering av bildeoppdatering vil du aldri trenge mer enn 60 FPS på et 60hz panel, da frames over dette ikke kan brukes til noe. Blir det samme som hvis du bruker vsync i dag. Da sørger GPU for å ikke rendrerer nytt bilde oftere enn hvert 16 ms. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå