Gå til innhold

AMD har lansert sin G-Sync-konkurrent


Anbefalte innlegg

Videoannonse
Annonse

Opplever ein inputlag med g-sync når ein er under dynamic range? Viss det er tilfelle, og så lenge nvidia ikkje lar oss slå av vsync med lav fps, så trur eg det er mange som heller vil velge freesync og tåle litt tearing enn å slite med inputlag.

 

Skal godt gjøres å oppleve inputlag på swift iallefall. Det finnes knapt. Derfor er det bare èn DP inngang, for å få minst mulig inputlag. Tv'er har ofte VELDIG høy inputlag pga evig med inn og utganger.

Lenke til kommentar

 

Opplever ein inputlag med g-sync når ein er under dynamic range? Viss det er tilfelle, og så lenge nvidia ikkje lar oss slå av vsync med lav fps, så trur eg det er mange som heller vil velge freesync og tåle litt tearing enn å slite med inputlag.

 

Skal godt gjøres å oppleve inputlag på swift iallefall. Det finnes knapt. Derfor er det bare èn DP inngang, for å få minst mulig inputlag. Tv'er har ofte VELDIG høy inputlag pga evig med inn og utganger.

 

 

TVer har da ikke høy input lag fordi de har mange inn og utganger?

 

AtW

Lenke til kommentar

 

 

Opplever ein inputlag med g-sync når ein er under dynamic range? Viss det er tilfelle, og så lenge nvidia ikkje lar oss slå av vsync med lav fps, så trur eg det er mange som heller vil velge freesync og tåle litt tearing enn å slite med inputlag.

 

Skal godt gjøres å oppleve inputlag på swift iallefall. Det finnes knapt. Derfor er det bare èn DP inngang, for å få minst mulig inputlag. Tv'er har ofte VELDIG høy inputlag pga evig med inn og utganger.

 

 

TVer har da ikke høy input lag fordi de har mange inn og utganger?

 

AtW

 

 

Det hjelper iallefall ikkje på.

 

Noen tv'er har en funksjon som disabler en del funksjoner på tv'en for å få mindre inputlag, aka "gamingmode"

Lenke til kommentar

Ja, men det disabler scaling, og diverse post-processing, ikke inn og utganger, det er førstnevnte som er problemet.

 

AtW

 

Er nesten sikker på at flere inn og utganger også gjør sitt for høyere inputlag også. Mener å ha lest det i noen tester. Får google litt da, da jeg ikkje har link for hånden :p

 

Qnix og de andre koreaskjermene som kan overklokkes, så er det de med bare èn inngang som er vits i å ha for spilling. Nettopp for de har minst inputlag.  :hmm:

Endret av Nizzen
Lenke til kommentar

 

Ja, men det disabler scaling, og diverse post-processing, ikke inn og utganger, det er førstnevnte som er problemet.

 

AtW

 

Er nesten sikker på at flere inn og utganger også gjør sitt for høyere inputlag også. Mener å ha lest det i noen tester. Får google litt da, da jeg ikkje har link for hånden :p

 

 

Skal vel aldri si aldri, det er jo mulig å designe ting ganske tåpelig, men det er ikke nødvendig å innføre (relevant) ekstra forsinkelse av å flere inn og utganger.

 

AtW

Lenke til kommentar

Skal godt gjøres å oppleve inputlag på swift iallefall. Det finnes knapt. Derfor er det bare èn DP inngang, for å få minst mulig inputlag. Tv'er har ofte VELDIG høy inputlag pga evig med inn og utganger.

Det er jo betryggande. Ein kjøper jo ikkje ein dyr g-sync skjerm for å spele under 30fps uansett, så det er gjerne ikkje ei veldig aktuell problemstilling for high-end skjermar som swift og predator.

Lenke til kommentar

Altså, hvis inputlag er viktigst for deg, så er det jo en FreeSync skjerm du skal ha. Det er jo det den er bedre på når du får høy fps. G-Sync låser sin skjerm med V-Sync rundt 143Hz, noe som gir en inputlag på 7ms. Du kan altså aldri få bedre inputlag enn 7ms med en G-Sync skjerm før de eventuelt endrer dette. Men hvis du har en FreeSync skjerm og skrur av V-Sync over 144Hz, og skjermkortet ditt produserer f.eks. 250fps. Da får du en inputlag på 4ms.

 

Hvordan dette blir på lav fps, er litt vanskelig å si ettersom Nvidia ikke kommenterer hvordan de gjør det, men ut fra videoen så ser det altså ut som at G-Sync modulen har en framebuffer som kan brukes til å tegne opp siste bildet en gang til mens skjermen venter på det neste bildet fra skjermkortet. Så la oss ta et eksempel der skjermkortet strever og klarer +/- 25fps. I gjenomsnitt bruker da skjermkortet 40ms på å tegne et bilde, men ikke alle bildene kommer til å kreve nøyaktig 40ms. G-Sync skjermen vil likevel doble bildeoppdateringen i skjermen til +/- 50Hz, altså viser den hvert bilde i ca. 20ms. Man kan da si at skjermen er stilt inn til å tegne samme bildet om igjen etter 20ms om den ikke har fått et nytt bilde innen da. Og i og med at skjermen nå går på 50Hz vil det si at skjermen ikke er klar til å tegne et nytt bilde før om 20ms. Om skjermkortets siste bilde var klart til å tegnes opp etter 30ms, så bommet skjermkortet med 10ms på skjermen, og må vente 10ms til før bildet endelig kan sendes igjen. Det gir en inputlag på 10ms, men altså potensielt opp til 19ms. Nå, så lenge man sitter hjemme og koser seg med et spill er det ikke sikkert at 10ms inputlag er noe du legger merke til, 10ms er lynkjapt (1/100 sek). Og da heller ikke når du spiller mot noen på nett, men om de har en fordel på deg med de samme ms'ene du har mistet, så er det forskjellen på å dø ofte, og å vinne ofte. Det er slik du merker at du har fått høyere inputlag enn før. Så lenge man er under 20 - 30ms vil de fleste ikke kunne se dette. Men det merkes. ;)

 

En FreeSync skjerm gjør ikke dette, når bildet er klart fra skjermkortet så blir det sendt, om det skaper kluss på skjermen så OK, men det blir ihvertfall ikke inputlag av det. Man kan på en måte si at G-Sync sørger for at alt er pent og pyntelig hele tiden punktum. Mens med FreeSync er det pent og pyntelig innenfor VRR vinduet (som er forskjellig fra skjerm til skjerm). Men under vinduet handler det om å fjerne inputlag, og over vinduet får du som bruker velge selv.

 

Noen har klaget på ghosting i FreeSync skjermen som sammenliknes med swiften, men nå er jo ikke swiften selv uten problemer så jeg vet ikke hvor mye vekt man skal legge på dette. Jeg syns det er på sin plass å minne om at ghosting er panel spesifikt og ikke har noe med FreeSync å gjøre. Om et par år når OLED skjermene kommer til å være mer utbredt vil med andre ord dette forhåpentligvis være en saga blott. Mer interessant blir det da å se på hvilken teknologi kommer først med OLED skjerm? Om FreeSync blir populært og produsentene selv velger paneler og implementasjon uten innblanding fra Nvidia (slik de kan med FreeSync) er det god sjanse for at den første VRR skjermen med OLED panel kommer til å være FreeSync basert.

 

Det blir spennende å se fremover hva Nvidia kommer til å foreta seg. Sett i et historisk perspektiv der Nvidia stjal teknologi og så gikk til mot-søksmål mot konkurrenten de stjal fra, slik at konkurrenten gikk konkurs. For så å kjøpe konkursboet slik at de fikk kontroll over patentene de allerede hadde stjålet. Eller hvordan de kjøpte opp PhysX og deretter fjernet støtte for PhysX kortene, slik at folk uten Nvidia skjermkort plutselig ikke fikk brukt sine egne PhysX kort lenger. Eller hvordan de tviholder på 3D vision, slik at ir emitteren som selges i løsvekt kun fungerer med godkjente "Nvidia" skjermer. Ja, da er det ikke lett å være optimist. Selv om Nvidia skulle åpne for å la egne skjermkort fungere med FreeSync skjermer, er jo ikke det det samme som at de lar AMD skjermkort få nytte av VRR teknologien i sine G-Sync skjermer.

 

Jeg håper folk våkner opp snart og skjønner at FreeSync faktisk er det beste valget. Ja, så fremt man vil ha et valg da...  ;)

Lenke til kommentar

Altså, hvis inputlag er viktigst for deg, så er det jo en FreeSync skjerm du skal ha. Det er jo det den er bedre på når du får høy fps. G-Sync låser sin skjerm med V-Sync rundt 143Hz, noe som gir en inputlag på 7ms. Du kan altså aldri få bedre inputlag enn 7ms med en G-Sync skjerm før de eventuelt endrer dette. Men hvis du har en FreeSync skjerm og skrur av V-Sync over 144Hz, og skjermkortet ditt produserer f.eks. 250fps. Da får du en inputlag på 4ms.

 

Hvordan dette blir på lav fps, er litt vanskelig å si ettersom Nvidia ikke kommenterer hvordan de gjør det, men ut fra videoen så ser det altså ut som at G-Sync modulen har en framebuffer som kan brukes til å tegne opp siste bildet en gang til mens skjermen venter på det neste bildet fra skjermkortet. Så la oss ta et eksempel der skjermkortet strever og klarer +/- 25fps. I gjenomsnitt bruker da skjermkortet 40ms på å tegne et bilde, men ikke alle bildene kommer til å kreve nøyaktig 40ms. G-Sync skjermen vil likevel doble bildeoppdateringen i skjermen til +/- 50Hz, altså viser den hvert bilde i ca. 20ms. Man kan da si at skjermen er stilt inn til å tegne samme bildet om igjen etter 20ms om den ikke har fått et nytt bilde innen da. Og i og med at skjermen nå går på 50Hz vil det si at skjermen ikke er klar til å tegne et nytt bilde før om 20ms. Om skjermkortets siste bilde var klart til å tegnes opp etter 30ms, så bommet skjermkortet med 10ms på skjermen, og må vente 10ms til før bildet endelig kan sendes igjen. Det gir en inputlag på 10ms, men altså potensielt opp til 19ms. Nå, så lenge man sitter hjemme og koser seg med et spill er det ikke sikkert at 10ms inputlag er noe du legger merke til, 10ms er lynkjapt (1/100 sek). Og da heller ikke når du spiller mot noen på nett, men om de har en fordel på deg med de samme ms'ene du har mistet, så er det forskjellen på å dø ofte, og å vinne ofte. Det er slik du merker at du har fått høyere inputlag enn før. Så lenge man er under 20 - 30ms vil de fleste ikke kunne se dette. Men det merkes. ;)

 

En FreeSync skjerm gjør ikke dette, når bildet er klart fra skjermkortet så blir det sendt, om det skaper kluss på skjermen så OK, men det blir ihvertfall ikke inputlag av det. Man kan på en måte si at G-Sync sørger for at alt er pent og pyntelig hele tiden punktum. Mens med FreeSync er det pent og pyntelig innenfor VRR vinduet (som er forskjellig fra skjerm til skjerm). Men under vinduet handler det om å fjerne inputlag, og over vinduet får du som bruker velge selv.

 

Noen har klaget på ghosting i FreeSync skjermen som sammenliknes med swiften, men nå er jo ikke swiften selv uten problemer så jeg vet ikke hvor mye vekt man skal legge på dette. Jeg syns det er på sin plass å minne om at ghosting er panel spesifikt og ikke har noe med FreeSync å gjøre. Om et par år når OLED skjermene kommer til å være mer utbredt vil med andre ord dette forhåpentligvis være en saga blott. Mer interessant blir det da å se på hvilken teknologi kommer først med OLED skjerm? Om FreeSync blir populært og produsentene selv velger paneler og implementasjon uten innblanding fra Nvidia (slik de kan med FreeSync) er det god sjanse for at den første VRR skjermen med OLED panel kommer til å være FreeSync basert.

 

Det blir spennende å se fremover hva Nvidia kommer til å foreta seg. Sett i et historisk perspektiv der Nvidia stjal teknologi og så gikk til mot-søksmål mot konkurrenten de stjal fra, slik at konkurrenten gikk konkurs. For så å kjøpe konkursboet slik at de fikk kontroll over patentene de allerede hadde stjålet. Eller hvordan de kjøpte opp PhysX og deretter fjernet støtte for PhysX kortene, slik at folk uten Nvidia skjermkort plutselig ikke fikk brukt sine egne PhysX kort lenger. Eller hvordan de tviholder på 3D vision, slik at ir emitteren som selges i løsvekt kun fungerer med godkjente "Nvidia" skjermer. Ja, da er det ikke lett å være optimist. Selv om Nvidia skulle åpne for å la egne skjermkort fungere med FreeSync skjermer, er jo ikke det det samme som at de lar AMD skjermkort få nytte av VRR teknologien i sine G-Sync skjermer.

 

Jeg håper folk våkner opp snart og skjønner at FreeSync faktisk er det beste valget. Ja, så fremt man vil ha et valg da...  ;)

 

Man kan jo kjøre ULMB på 120hz :)

 

Er ikkje helt sikker på hva konklusjonen din ble med den lange stilen din, men ghostingen på de freesyncskjermene som er kommet til nå ser ikkje bra ut. Håpe det kommer noen som er skikkelig gode, men kommer vel til å koste like mye som g-syncskjermene :p

 

Jeg kommer til å teste de nye skjermkortene til AMD uansett, så det er litt irriterende at ikkje g-sync fungerer på AMD...

Endret av Nizzen
Lenke til kommentar

Nå dukker vel ghostingen opp under helt konkrete situasjoner , 

 

"That said, thanks to how Freesync works, at lower frame rates there's a more noticeable judder when the panel is working at 40Hz, amplifying the effects of V-Sync on or off. There's also some ghosting on the Freesync monitors I tested (you can see a little of it in the video above), that doesn't affect a G-Sync screen. Indeed, Nvidia's on the offensive at the moment mentioning that very fact. Still, it's not a total deal breaker by any means, and for the most part, games will be running far above that threshold anyway."

 

Med andre ord , trolig ikke noe som vil dukke opp for de fleste spillerne med mindre de har svært lav fps akkurat i det spillet.

Lenke til kommentar

Nå dukker vel ghostingen opp under helt konkrete situasjoner , 

 

"That said, thanks to how Freesync works, at lower frame rates there's a more noticeable judder when the panel is working at 40Hz, amplifying the effects of V-Sync on or off. There's also some ghosting on the Freesync monitors I tested (you can see a little of it in the video above), that doesn't affect a G-Sync screen. Indeed, Nvidia's on the offensive at the moment mentioning that very fact. Still, it's not a total deal breaker by any means, and for the most part, games will be running far above that threshold anyway."

 

Med andre ord , trolig ikke noe som vil dukke opp for de fleste spillerne med mindre de har svært lav fps akkurat i det spillet.

ikkje vet jeg

 

 

http://www.pcper.com/reviews/Displays/AMD-FreeSync-First-Impressions-and-Technical-Discussion

Endret av Nizzen
Lenke til kommentar

 

Man kan jo kjøre ULMB på 120hz :)

 

Er ikkje helt sikker på hva konklusjonen din ble med den lange stilen din, men ghostingen på de freesyncskjermene som er kommet til nå ser ikkje bra ut. Håpe det kommer noen som er skikkelig gode, men kommer vel til å koste like mye som g-syncskjermene :p

 

Jeg kommer til å teste de nye skjermkortene til AMD uansett, så det er litt irriterende at ikkje g-sync fungerer på AMD...

 

 

Jeg synes ikke 120Hz ULMB er et særlig godt argument. Da er det ikke G-Sync lenger, og det finnes andre modeller som også har ULMB som ikke er G-Sync.

 

Konklusjonen min er da klar og tydelig i siste setning? Å velge G-Sync i dag kan fort vise seg å bli som å tisse på seg for å holde varmen.

 

Jeg synes også mesteparten av videoen til PCPerspective viser at de er litt Nvidia "biased". De snakker som om de har scoopet at paven har forgrepet seg på smågutter. Mens alt de egentlig oppnår med å sette fokus på at G-Sync ser bedre ut, er å skjule at FreeSync gjør det du vil. Du vil jo helst vinne i <insert game> vel? Eller vil du heller at det skal se bra ut mens du taper?

Lenke til kommentar

Uansett så virker ikkje PCPerspective noe biased på noe som helst av de testene jeg har sett. De er en av de få som graver dypt i ting for å finne ut av ting andre kanskje ikkje har tenkt på engang.

 

Skjønte ikkje helt "Å velge G-Sync i dag kan fort vise seg å bli som å tisse på seg for å holde varmen." , fordi G-sync fungerer veldig bra. Det er faktisk helt konge :D 

Lenke til kommentar

Uttrykket "å tisse på seg for å holde varmen" henspiller på å ta et svært kortsiktig valg som kjennes godt ut der og da, men som straffer seg senere. Det kjennes godt å varmt ut der og da, men etterpå fryser du enda verre og du stinker av piss.

 

Å velge G-Sync i dag er dumt om det betyr at FreeSync holdes ute av markedet. Da risikerer du å måtte bruke Nvidas neste FX 5800 Ultra for å få VRR. Mens AMDs siste skjermkort går kaldt og fint, men ingen produsenter har giddet å fortsette å lage FreeSync skjermer.

 

Jen-Hsun har vist at han ikke er interessert i et friskt skjermkort marked. Han er ute etter å dominere det. Det er ikke forbrukere tjent med...

 

Edit: Ingen kommentar til screenshot'en? ;)

Endret av Gabri3L
Lenke til kommentar

Det virker som at hovedproblemet du har med NVIDIA (og G-Sync) er at de driver butikk. Nå er det forresten NVIDIA's skjermkort som går kaldt og fint, mens AMD har varmeovner.

 

Å stjele andres patenter er kriminell virksomhet, ikke butikk. Linken til FX5800Ultra var ment å illustrere at det ikke alltid har vært Nvidia på topp, og at det kan fort snu igjen.

Lenke til kommentar

Det virker som at hovedproblemet du har med NVIDIA (og G-Sync) er at de driver butikk. Nå er det forresten NVIDIA's skjermkort som går kaldt og fint, mens AMD har varmeovner.

 

Hovedproblemet her er at de har en proprietær standard der man må betale mye fordi det er Nvidia som kan levere det. En åpen løsning der man er uavhengig av produsenten for å implementere det er bedre.

 

AtW

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...