Gå til innhold

DVI-signal


perbl

Anbefalte innlegg

Hallå..

 

Lurte på om det er noen der ute som kan forklare meg noe jeg lurer litt på. Det begynner jo nå å dukke opp LCD-skjermer som har 16ms responstid, og kommer sikkert til å dukke opp noen raskere etterhvert...

 

Det jeg lurer på er hva hensikten er i forhold til signalet du styrer skjermen med, såvidt jeg vet er jo DVI på 60Hz, skulle ikke dette da tilsie at du ikke kan vise flere bilder enn 60 i sekundet? Som igjen krever en skjerm med 16,67ms responstid. Fint hvis noen kunne oppklare dette :)

Lenke til kommentar
Videoannonse
Annonse

For det første

 

Hz eksisterer ikke på en lcd skjerm

 

Forskjellen er egentlig ganske enkel.

 

På en "vanlig" CRT-skjerm skapes bildet av elektroner som treffer et fosforlag som deretter lyser opp med forskjellige farger basert på strålen. Dette skapes på grunnlag av et analogt signal.

 

På en LCD-skjerm skapes bildet av en fast mengde punkter, der hvert punkt kan styres individuelt. Dvs at du har på en 17" skjerm 1280 punkter horisontalt og 1024 punkter vertikalt hvis du har en normal 5:4 skjerm, som er det vanligste på 17" lcd. Det vil si at skjermen er laget for den ene oppløsningen. For å få til å styre hvert punkt individuelt må man sende et signal som kan gjøre dette, dvs et digitalt signal, som du tar ut fra DVI-utgangen på skjermkortet ditt.

 

Bruker man analogt signal fra en "vanlig" skjermutgang på grafikkortet, vil det analoge signalet måtte omformes til et digitalt signal i skjermen før det brukes til å styre de enkelte pixels. Dermed er du prisgitt denne AD (analog-digital) omformingens kvalitet, da den i prinsippet kan være så dårlig at du får tegnet opp et feil bilde. Nettopp dette gjør det i prinsippet litt idiotisk å bruke en digital skjerm på et analogt signal, da du med DVI har mulighet til å sende bildet helt uten kvalitetstap direkte til skjermen og de enkelte pixlene. Men, nå er det slik at de fleste LCD skjermer har en så bra signalhåndtering at du knapt ser forskjell på DVi vs analogt signal, og dermed utgjør det ikke den helt store forskjellen. Men har sett mange tester der man fastslår at bildet blir endel skarpere på f.eks tekst på en del skjermer. (tekstem stammer orginalt fra perbl :)

Lenke til kommentar

Vel, leste et sted at DVI er på 60 Hz, og var det som fikk meg til å lure litt. Men googlet litt nå, og fant at DVI-signalet er spesifisert til å kunne takle 160 MHz båndbredde. Noe som nok gjør saken litt annerledes :)

Lenke til kommentar

Hz = oppdateringsfrekvensen på skjermen og dette finnes kun på CRT skjermer.

 

LCD skjermen har ikke Hz så du får et MYE mere behagelig bilde og der er det for det meste pixel responsen som bestemmer hvor bra/kjapp skjermen er til å forandre bilde som teller MYE i spillsammenhenger osv :wink: 16 ms er BRA, men sjekk litt rundtom etter tester, annbefaling osv :wink:

Lenke til kommentar

Altså, snakker ikke om skjermen jeg, det er jo selvsagt at den ikke vil flimre, da den er i stand til å holde på et konstant bilde ved bare å la et pixel lyse, mens en CRT må kontinuerlig sveipe over for å lyse opp fosfor med elektronstråler.

 

Jeg snakker om signalet, hvor mange forskjellige bilder du er i stand til å overføre, og hvis signalet er på 60 Hz så skulle det vel tilsie at du er i stand til å overføre 60 forskjellige signaler pr. sekund, noe som skulle tilsi 60 forskjellige bilder.

Lenke til kommentar

hmm....vel 60 bilder i sekundet er vel bra..... :-?

 

(trodde først det var en annen som lagde dette emne og etter jeg så at det var DEG perbl og jeg som hadde koppet over din egen tekst :oops: (flau) Så det ikke før nå :o hehe

 

Jeg trodde ikke Hz hadde noen virkning på en lcd skjerm, men kankje jeg tok feil :roll:

Lenke til kommentar

hehe, trodde først det var ironi jeg, at jeg liksom svarte på mitt eget spørsmål i min egen tekst :)

 

Men poenget var at jeg lurer litt på hva 60Hz i signalet har å si for skjermens muligheter til å vise forskjellige bilder når responstiden på skjermen er raskere enn svingningene i signalet.

 

Hvis dette betyr max 60 bilder i sekundet via dvi, så setter jo dette litt begrensninger for f.eks quakespillere som vil ha 100+ fps pga høy mussensitivitet.

Lenke til kommentar

Nå klarer ikke øyet å oppfatte uendelig med "fps" heller da..

 

Husk at en vanlig lyspære blinker 50 ganger i sekundet (50hz), det oppfatter vi som kontant lys..

Det vil igjen si at vi oppfatter mindre enn 50 fps uansett...

Lenke til kommentar

Bare for å gi et eksempel på det jeg sa:

Jeg husker ikke helt hvilken film det var (muligens trainspotting), men der hadde de satt opp en ekstremt high-speed kamera på en offentlig toalett..

Vet ikke hvor fort dette kamera gikk, men det var sikkert noen hundre fps..

 

Når man da spilte av denne filmen ved vanlig 24 bilder i sekundet (som filmer ofte er), så kunne man se hvordan lysrørene blinket 50 ganger i sekundet (siden hvert sekund ble strukket ut til flere sekunder)...

Lenke til kommentar

hæ?

 

Når du ser på en dataskjerm via tv da ser du veldig klart at bilde blinker/flirrer mye mere enn et menneskeøyet kan se med direkte på en dataskjerm, men du ser aldri slikt med lyspærer......

 

en vanlig pære er på mye mere enn 50 hz tror jeg (har visst dette en gang men husker ikke lengre nå)

 

en her snakekr vi om Bildesignaler og en lyspære kan ikke sammenlignes med det....det er 2 helt forskjellige ting.

 

en skal HELST ha 100 hz....har selv min skjerm på 85 hz og jeg blir sliten og får hodepine av å sitte for lenge foran den

Lenke til kommentar

Hvordan kan en lyspære ha høyere frekvens enn nstrømnettet?

Er det noen videre elektronikk i en lyspære?

Nei, det er bare strømmen som er koblet rett i tråden...

 

At man blir sliten av å se på en skjerm med for lav frekvens, har ikke med hva øyet kan oppfatte, men med stråling..

Husk at TV'en din er på 50Hz (eller 60 husker ikke helt), hvis du sitter KLIN intil den, så bli du rimelig sliten, men sitter du lenger unna (som f.eks i stua) så blir du ikke like sliten, fordi strålinga ikke er like ille langt vekk fra skjermen..

Lenke til kommentar

En vanlig lyspære blinker ikke 50Hz. Hvis den hadde blinket så hadde den blinket 100Hz, men grunnen til at den lyser er jo at glødetråden er hvitglødende. Den blir ikke kjølt ned fordi at strømmen et øyeblikk faller til null, så den lyser faktisk hele tiden.

Lysrør blinker nok, men man oppfatter dårlig at det blinker når det er lyst. Hvis det derimot er helt mørkt i rommet, og så prøver du å blinke med et lys så kan man oppfatte svært korte blink. Så det er ikke så enkelt som å si at vi ikke oppfatter bevegelse raskere enn 24/50/60/75/100 Hz.

Lenke til kommentar

Jo det er faktisk så enkelt..

 

For alt lys (med unntak av sollys) "blinker" i samme frekvens som strømnettet (med mindre det er noe high-tech greier, men nå snakker vi om hva du og jeg er vant med)..

 

Hvis man har en bra TV med 100Hz, forandrer ikke dette at filmer blir inspilt i 24 bilder i sekundet.. Det blir ikke plootselig 100 bilder i sekundet bare fordi TV'en er 100Hz..

Men om vi skulle sett film i 24 bilder i sekundet med en skjerm med 24Hz, så hadde du sansynligvis fått rimelig vondt i øya (som er det vi har diskutert her)..

 

Nå kan det nok hende at du ikke vil merke stort til "flimringa" i ei vanlig lyspære, men som i eksempelet mitt, så var det brukt lysrør, da er det en helt annen sak..

 

Det kan godt hende at du har rett ang. lyspære og 100Hz, fordi den blinker på både + og -... men høyere er det ikke..

 

 

Har du noengang sett lyset foran på et tog? Eller blitt sliten av belysningen inne i toget?

Der kan man faktisk til tider se at det flimrer, fordi toglinjene veldig ofte bruker noe som blir kalt for "russerstrøm" av fagfolket (Jeg er jo skolert i faget da..hehe), denne strømmen er på 40Hz, da da begynner det å bli lite og merkbart...

 

Konklusjon: 50Hz er høyeste fps øyet kan oppdage, og derfor brukes det i strømnettet..

Strålingen ved f.eks 100Hz er mindre, og derfor mere behagelig, fordi strålingen av hver enkelt Hz bare varer halvparten så lenge av gangen som 50Hz...

Og det er STRÅLINGEN som er slitsom på øya..

 

Edit: la på noe mere..

Lenke til kommentar

Vel, prøv å kom deg opp på et høyt nivå innen fps-spill, skru opp mussensitivitet sinnsykt, og kom og fortell meg at du ikke merker forskjell på 50 fps og 100 fps.

 

Men uansett, spørsmålet mitt var ikke om 50 fps er synlig flimrete eller ikke.

Lenke til kommentar

Du vil nok merke forskjell på 100fps og 50fps med høy musfølsomhet i spill ja.

Når du f.eks tar en 180 graders med musa, så klarer ikke skjermkortet å holde fps-rate'n konstant (nei, det gjør ikke det), og da er du kanskje nede på 50fps i et brøkdels sekund (hvis man kjører 100fps), og da vil du kanskje ikke merke stort til det..

 

Kjører du derimot 50fps, så vil samme bevegelse gjøre så du kanskje taper halvparten av det igjen, og da vil man merke noe til det..

 

..

Bare kverullerer jeg :lol:

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...