Svar Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Link? tftcentral test: http://www.tftcentral.co.uk/reviews/acer_xb270hu.htm Et must å se: Litt i dybden på forskjellen mellom G-sync og Freesync. Etter å ha sett den her så ble det hele litt mer klart ja. Da blir det gsync, helt klart. Lenke til kommentar
Nizzen Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Opplever ein inputlag med g-sync når ein er under dynamic range? Viss det er tilfelle, og så lenge nvidia ikkje lar oss slå av vsync med lav fps, så trur eg det er mange som heller vil velge freesync og tåle litt tearing enn å slite med inputlag. Skal godt gjøres å oppleve inputlag på swift iallefall. Det finnes knapt. Derfor er det bare èn DP inngang, for å få minst mulig inputlag. Tv'er har ofte VELDIG høy inputlag pga evig med inn og utganger. Lenke til kommentar
ATWindsor Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Opplever ein inputlag med g-sync når ein er under dynamic range? Viss det er tilfelle, og så lenge nvidia ikkje lar oss slå av vsync med lav fps, så trur eg det er mange som heller vil velge freesync og tåle litt tearing enn å slite med inputlag. Skal godt gjøres å oppleve inputlag på swift iallefall. Det finnes knapt. Derfor er det bare èn DP inngang, for å få minst mulig inputlag. Tv'er har ofte VELDIG høy inputlag pga evig med inn og utganger. TVer har da ikke høy input lag fordi de har mange inn og utganger? AtW Lenke til kommentar
Nizzen Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Opplever ein inputlag med g-sync når ein er under dynamic range? Viss det er tilfelle, og så lenge nvidia ikkje lar oss slå av vsync med lav fps, så trur eg det er mange som heller vil velge freesync og tåle litt tearing enn å slite med inputlag. Skal godt gjøres å oppleve inputlag på swift iallefall. Det finnes knapt. Derfor er det bare èn DP inngang, for å få minst mulig inputlag. Tv'er har ofte VELDIG høy inputlag pga evig med inn og utganger. TVer har da ikke høy input lag fordi de har mange inn og utganger? AtW Det hjelper iallefall ikkje på. Noen tv'er har en funksjon som disabler en del funksjoner på tv'en for å få mindre inputlag, aka "gamingmode" Lenke til kommentar
ATWindsor Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Ja, men det disabler scaling, og diverse post-processing, ikke inn og utganger, det er førstnevnte som er problemet. AtW Lenke til kommentar
Nizzen Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 (endret) Ja, men det disabler scaling, og diverse post-processing, ikke inn og utganger, det er førstnevnte som er problemet. AtW Er nesten sikker på at flere inn og utganger også gjør sitt for høyere inputlag også. Mener å ha lest det i noen tester. Får google litt da, da jeg ikkje har link for hånden Qnix og de andre koreaskjermene som kan overklokkes, så er det de med bare èn inngang som er vits i å ha for spilling. Nettopp for de har minst inputlag. Endret 29. mars 2015 av Nizzen Lenke til kommentar
ATWindsor Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Ja, men det disabler scaling, og diverse post-processing, ikke inn og utganger, det er førstnevnte som er problemet. AtW Er nesten sikker på at flere inn og utganger også gjør sitt for høyere inputlag også. Mener å ha lest det i noen tester. Får google litt da, da jeg ikkje har link for hånden Skal vel aldri si aldri, det er jo mulig å designe ting ganske tåpelig, men det er ikke nødvendig å innføre (relevant) ekstra forsinkelse av å flere inn og utganger. AtW Lenke til kommentar
LMH Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Skal godt gjøres å oppleve inputlag på swift iallefall. Det finnes knapt. Derfor er det bare èn DP inngang, for å få minst mulig inputlag. Tv'er har ofte VELDIG høy inputlag pga evig med inn og utganger. Det er jo betryggande. Ein kjøper jo ikkje ein dyr g-sync skjerm for å spele under 30fps uansett, så det er gjerne ikkje ei veldig aktuell problemstilling for high-end skjermar som swift og predator. Lenke til kommentar
Gabri3L Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Altså, hvis inputlag er viktigst for deg, så er det jo en FreeSync skjerm du skal ha. Det er jo det den er bedre på når du får høy fps. G-Sync låser sin skjerm med V-Sync rundt 143Hz, noe som gir en inputlag på 7ms. Du kan altså aldri få bedre inputlag enn 7ms med en G-Sync skjerm før de eventuelt endrer dette. Men hvis du har en FreeSync skjerm og skrur av V-Sync over 144Hz, og skjermkortet ditt produserer f.eks. 250fps. Da får du en inputlag på 4ms. Hvordan dette blir på lav fps, er litt vanskelig å si ettersom Nvidia ikke kommenterer hvordan de gjør det, men ut fra videoen så ser det altså ut som at G-Sync modulen har en framebuffer som kan brukes til å tegne opp siste bildet en gang til mens skjermen venter på det neste bildet fra skjermkortet. Så la oss ta et eksempel der skjermkortet strever og klarer +/- 25fps. I gjenomsnitt bruker da skjermkortet 40ms på å tegne et bilde, men ikke alle bildene kommer til å kreve nøyaktig 40ms. G-Sync skjermen vil likevel doble bildeoppdateringen i skjermen til +/- 50Hz, altså viser den hvert bilde i ca. 20ms. Man kan da si at skjermen er stilt inn til å tegne samme bildet om igjen etter 20ms om den ikke har fått et nytt bilde innen da. Og i og med at skjermen nå går på 50Hz vil det si at skjermen ikke er klar til å tegne et nytt bilde før om 20ms. Om skjermkortets siste bilde var klart til å tegnes opp etter 30ms, så bommet skjermkortet med 10ms på skjermen, og må vente 10ms til før bildet endelig kan sendes igjen. Det gir en inputlag på 10ms, men altså potensielt opp til 19ms. Nå, så lenge man sitter hjemme og koser seg med et spill er det ikke sikkert at 10ms inputlag er noe du legger merke til, 10ms er lynkjapt (1/100 sek). Og da heller ikke når du spiller mot noen på nett, men om de har en fordel på deg med de samme ms'ene du har mistet, så er det forskjellen på å dø ofte, og å vinne ofte. Det er slik du merker at du har fått høyere inputlag enn før. Så lenge man er under 20 - 30ms vil de fleste ikke kunne se dette. Men det merkes. En FreeSync skjerm gjør ikke dette, når bildet er klart fra skjermkortet så blir det sendt, om det skaper kluss på skjermen så OK, men det blir ihvertfall ikke inputlag av det. Man kan på en måte si at G-Sync sørger for at alt er pent og pyntelig hele tiden punktum. Mens med FreeSync er det pent og pyntelig innenfor VRR vinduet (som er forskjellig fra skjerm til skjerm). Men under vinduet handler det om å fjerne inputlag, og over vinduet får du som bruker velge selv. Noen har klaget på ghosting i FreeSync skjermen som sammenliknes med swiften, men nå er jo ikke swiften selv uten problemer så jeg vet ikke hvor mye vekt man skal legge på dette. Jeg syns det er på sin plass å minne om at ghosting er panel spesifikt og ikke har noe med FreeSync å gjøre. Om et par år når OLED skjermene kommer til å være mer utbredt vil med andre ord dette forhåpentligvis være en saga blott. Mer interessant blir det da å se på hvilken teknologi kommer først med OLED skjerm? Om FreeSync blir populært og produsentene selv velger paneler og implementasjon uten innblanding fra Nvidia (slik de kan med FreeSync) er det god sjanse for at den første VRR skjermen med OLED panel kommer til å være FreeSync basert. Det blir spennende å se fremover hva Nvidia kommer til å foreta seg. Sett i et historisk perspektiv der Nvidia stjal teknologi og så gikk til mot-søksmål mot konkurrenten de stjal fra, slik at konkurrenten gikk konkurs. For så å kjøpe konkursboet slik at de fikk kontroll over patentene de allerede hadde stjålet. Eller hvordan de kjøpte opp PhysX og deretter fjernet støtte for PhysX kortene, slik at folk uten Nvidia skjermkort plutselig ikke fikk brukt sine egne PhysX kort lenger. Eller hvordan de tviholder på 3D vision, slik at ir emitteren som selges i løsvekt kun fungerer med godkjente "Nvidia" skjermer. Ja, da er det ikke lett å være optimist. Selv om Nvidia skulle åpne for å la egne skjermkort fungere med FreeSync skjermer, er jo ikke det det samme som at de lar AMD skjermkort få nytte av VRR teknologien i sine G-Sync skjermer. Jeg håper folk våkner opp snart og skjønner at FreeSync faktisk er det beste valget. Ja, så fremt man vil ha et valg da... Lenke til kommentar
Nizzen Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 (endret) Altså, hvis inputlag er viktigst for deg, så er det jo en FreeSync skjerm du skal ha. Det er jo det den er bedre på når du får høy fps. G-Sync låser sin skjerm med V-Sync rundt 143Hz, noe som gir en inputlag på 7ms. Du kan altså aldri få bedre inputlag enn 7ms med en G-Sync skjerm før de eventuelt endrer dette. Men hvis du har en FreeSync skjerm og skrur av V-Sync over 144Hz, og skjermkortet ditt produserer f.eks. 250fps. Da får du en inputlag på 4ms. Hvordan dette blir på lav fps, er litt vanskelig å si ettersom Nvidia ikke kommenterer hvordan de gjør det, men ut fra videoen så ser det altså ut som at G-Sync modulen har en framebuffer som kan brukes til å tegne opp siste bildet en gang til mens skjermen venter på det neste bildet fra skjermkortet. Så la oss ta et eksempel der skjermkortet strever og klarer +/- 25fps. I gjenomsnitt bruker da skjermkortet 40ms på å tegne et bilde, men ikke alle bildene kommer til å kreve nøyaktig 40ms. G-Sync skjermen vil likevel doble bildeoppdateringen i skjermen til +/- 50Hz, altså viser den hvert bilde i ca. 20ms. Man kan da si at skjermen er stilt inn til å tegne samme bildet om igjen etter 20ms om den ikke har fått et nytt bilde innen da. Og i og med at skjermen nå går på 50Hz vil det si at skjermen ikke er klar til å tegne et nytt bilde før om 20ms. Om skjermkortets siste bilde var klart til å tegnes opp etter 30ms, så bommet skjermkortet med 10ms på skjermen, og må vente 10ms til før bildet endelig kan sendes igjen. Det gir en inputlag på 10ms, men altså potensielt opp til 19ms. Nå, så lenge man sitter hjemme og koser seg med et spill er det ikke sikkert at 10ms inputlag er noe du legger merke til, 10ms er lynkjapt (1/100 sek). Og da heller ikke når du spiller mot noen på nett, men om de har en fordel på deg med de samme ms'ene du har mistet, så er det forskjellen på å dø ofte, og å vinne ofte. Det er slik du merker at du har fått høyere inputlag enn før. Så lenge man er under 20 - 30ms vil de fleste ikke kunne se dette. Men det merkes. En FreeSync skjerm gjør ikke dette, når bildet er klart fra skjermkortet så blir det sendt, om det skaper kluss på skjermen så OK, men det blir ihvertfall ikke inputlag av det. Man kan på en måte si at G-Sync sørger for at alt er pent og pyntelig hele tiden punktum. Mens med FreeSync er det pent og pyntelig innenfor VRR vinduet (som er forskjellig fra skjerm til skjerm). Men under vinduet handler det om å fjerne inputlag, og over vinduet får du som bruker velge selv. Noen har klaget på ghosting i FreeSync skjermen som sammenliknes med swiften, men nå er jo ikke swiften selv uten problemer så jeg vet ikke hvor mye vekt man skal legge på dette. Jeg syns det er på sin plass å minne om at ghosting er panel spesifikt og ikke har noe med FreeSync å gjøre. Om et par år når OLED skjermene kommer til å være mer utbredt vil med andre ord dette forhåpentligvis være en saga blott. Mer interessant blir det da å se på hvilken teknologi kommer først med OLED skjerm? Om FreeSync blir populært og produsentene selv velger paneler og implementasjon uten innblanding fra Nvidia (slik de kan med FreeSync) er det god sjanse for at den første VRR skjermen med OLED panel kommer til å være FreeSync basert. Det blir spennende å se fremover hva Nvidia kommer til å foreta seg. Sett i et historisk perspektiv der Nvidia stjal teknologi og så gikk til mot-søksmål mot konkurrenten de stjal fra, slik at konkurrenten gikk konkurs. For så å kjøpe konkursboet slik at de fikk kontroll over patentene de allerede hadde stjålet. Eller hvordan de kjøpte opp PhysX og deretter fjernet støtte for PhysX kortene, slik at folk uten Nvidia skjermkort plutselig ikke fikk brukt sine egne PhysX kort lenger. Eller hvordan de tviholder på 3D vision, slik at ir emitteren som selges i løsvekt kun fungerer med godkjente "Nvidia" skjermer. Ja, da er det ikke lett å være optimist. Selv om Nvidia skulle åpne for å la egne skjermkort fungere med FreeSync skjermer, er jo ikke det det samme som at de lar AMD skjermkort få nytte av VRR teknologien i sine G-Sync skjermer. Jeg håper folk våkner opp snart og skjønner at FreeSync faktisk er det beste valget. Ja, så fremt man vil ha et valg da... Man kan jo kjøre ULMB på 120hz Er ikkje helt sikker på hva konklusjonen din ble med den lange stilen din, men ghostingen på de freesyncskjermene som er kommet til nå ser ikkje bra ut. Håpe det kommer noen som er skikkelig gode, men kommer vel til å koste like mye som g-syncskjermene Jeg kommer til å teste de nye skjermkortene til AMD uansett, så det er litt irriterende at ikkje g-sync fungerer på AMD... Endret 29. mars 2015 av Nizzen Lenke til kommentar
Malvado Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Nå dukker vel ghostingen opp under helt konkrete situasjoner , "That said, thanks to how Freesync works, at lower frame rates there's a more noticeable judder when the panel is working at 40Hz, amplifying the effects of V-Sync on or off. There's also some ghosting on the Freesync monitors I tested (you can see a little of it in the video above), that doesn't affect a G-Sync screen. Indeed, Nvidia's on the offensive at the moment mentioning that very fact. Still, it's not a total deal breaker by any means, and for the most part, games will be running far above that threshold anyway." Med andre ord , trolig ikke noe som vil dukke opp for de fleste spillerne med mindre de har svært lav fps akkurat i det spillet. Lenke til kommentar
Nizzen Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 (endret) Nå dukker vel ghostingen opp under helt konkrete situasjoner , "That said, thanks to how Freesync works, at lower frame rates there's a more noticeable judder when the panel is working at 40Hz, amplifying the effects of V-Sync on or off. There's also some ghosting on the Freesync monitors I tested (you can see a little of it in the video above), that doesn't affect a G-Sync screen. Indeed, Nvidia's on the offensive at the moment mentioning that very fact. Still, it's not a total deal breaker by any means, and for the most part, games will be running far above that threshold anyway." Med andre ord , trolig ikke noe som vil dukke opp for de fleste spillerne med mindre de har svært lav fps akkurat i det spillet. ikkje vet jeg http://www.pcper.com/reviews/Displays/AMD-FreeSync-First-Impressions-and-Technical-Discussion Endret 29. mars 2015 av Nizzen Lenke til kommentar
Gabri3L Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Man kan jo kjøre ULMB på 120hz Er ikkje helt sikker på hva konklusjonen din ble med den lange stilen din, men ghostingen på de freesyncskjermene som er kommet til nå ser ikkje bra ut. Håpe det kommer noen som er skikkelig gode, men kommer vel til å koste like mye som g-syncskjermene Jeg kommer til å teste de nye skjermkortene til AMD uansett, så det er litt irriterende at ikkje g-sync fungerer på AMD... Jeg synes ikke 120Hz ULMB er et særlig godt argument. Da er det ikke G-Sync lenger, og det finnes andre modeller som også har ULMB som ikke er G-Sync. Konklusjonen min er da klar og tydelig i siste setning? Å velge G-Sync i dag kan fort vise seg å bli som å tisse på seg for å holde varmen. Jeg synes også mesteparten av videoen til PCPerspective viser at de er litt Nvidia "biased". De snakker som om de har scoopet at paven har forgrepet seg på smågutter. Mens alt de egentlig oppnår med å sette fokus på at G-Sync ser bedre ut, er å skjule at FreeSync gjør det du vil. Du vil jo helst vinne i <insert game> vel? Eller vil du heller at det skal se bra ut mens du taper? Lenke til kommentar
Gabri3L Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Hva skuer mine uskyldsblå? Lenke til kommentar
Nizzen Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Uansett så virker ikkje PCPerspective noe biased på noe som helst av de testene jeg har sett. De er en av de få som graver dypt i ting for å finne ut av ting andre kanskje ikkje har tenkt på engang. Skjønte ikkje helt "Å velge G-Sync i dag kan fort vise seg å bli som å tisse på seg for å holde varmen." , fordi G-sync fungerer veldig bra. Det er faktisk helt konge Lenke til kommentar
Gabri3L Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 (endret) Uttrykket "å tisse på seg for å holde varmen" henspiller på å ta et svært kortsiktig valg som kjennes godt ut der og da, men som straffer seg senere. Det kjennes godt å varmt ut der og da, men etterpå fryser du enda verre og du stinker av piss. Å velge G-Sync i dag er dumt om det betyr at FreeSync holdes ute av markedet. Da risikerer du å måtte bruke Nvidas neste FX 5800 Ultra for å få VRR. Mens AMDs siste skjermkort går kaldt og fint, men ingen produsenter har giddet å fortsette å lage FreeSync skjermer. Jen-Hsun har vist at han ikke er interessert i et friskt skjermkort marked. Han er ute etter å dominere det. Det er ikke forbrukere tjent med... Edit: Ingen kommentar til screenshot'en? Endret 29. mars 2015 av Gabri3L Lenke til kommentar
Ar`Kritz Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Det virker som at hovedproblemet du har med NVIDIA (og G-Sync) er at de driver butikk. Nå er det forresten NVIDIA's skjermkort som går kaldt og fint, mens AMD har varmeovner. Lenke til kommentar
Gabri3L Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Det virker som at hovedproblemet du har med NVIDIA (og G-Sync) er at de driver butikk. Nå er det forresten NVIDIA's skjermkort som går kaldt og fint, mens AMD har varmeovner. Å stjele andres patenter er kriminell virksomhet, ikke butikk. Linken til FX5800Ultra var ment å illustrere at det ikke alltid har vært Nvidia på topp, og at det kan fort snu igjen. Lenke til kommentar
Svar Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Er glad for å ikke være der lengere at jeg er "avhengig" av å ha det som er på topp til enhver tid. Jeg har ikke noe i mot AMD, men foretrekker Nvidia, aner ikke hvorfor, men har alltid vært sånn. Lenke til kommentar
ATWindsor Skrevet 29. mars 2015 Del Skrevet 29. mars 2015 Det virker som at hovedproblemet du har med NVIDIA (og G-Sync) er at de driver butikk. Nå er det forresten NVIDIA's skjermkort som går kaldt og fint, mens AMD har varmeovner. Hovedproblemet her er at de har en proprietær standard der man må betale mye fordi det er Nvidia som kan levere det. En åpen løsning der man er uavhengig av produsenten for å implementere det er bedre. AtW Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå