Gå til innhold

Hvor mange FPS kan ett menneske oppfatte?


Anbefalte innlegg

Derfor kan CRT flimre, mens LCD aldri flimrer. :)

6018595[/snapback]

Øyene har to typer lyssensitive reseptorer: staver og tapper. Tappene ser farge men trenger mye lys og tid for å oppfatte fargene. Tappene finnes konsentrert i midten av synsfeltet og bare sporadisk ut mot ytterkanten av synsfeltet.

 

Stavene ser ikke farge, men de er veldig lyssensitive. Det er de man ser med om natta, og det er de man ser svært raske endringer og bevegelser med. Det er få staver i midten av synsfeltet så blandt annet nattsynet er mye bedre litt ut til sidene enn rett frem. Man er også mer sensitiv for bevegelser i sidene av synsfeltet enn rett frem. Mange legger merke til at CRT-skjermer og TV-er ikke flimrer når man ser rett på de, men de flimrer når man ser bort fra skjermen så man har den i sidesynet.

 

Stavene gjør at man ikke ser raske fargeendringer, men man kan se raske endringer i lysintensitet, f.eks flimring.

 

CRT tegner bildet med én stråle som sveiper over skjermen linje for linje Lysintensiteten faller ofte ganske mye mellom hver gang strålen passerer et gitt punkt. Lyset henger igjen rundt 5-20 millisekunder i fosforet, men blir altså svakere og svakere. Hvis du tar bilde med fotokamera og setter lukkertida til f.eks 1/200 sekund så kan man se at det er forskjell i lysintensitet på skjermen. F.eks mørkt oppe og lyst nede. Dette er den forskjellen i lysintensitet som gir flimringen.

 

LCD tegner ikke bildet med en stråle, men har hele bildet på plass samtidig. Responstiden på LCD er den tiden det tar å endre fargeverdien fra en ting til noe annet. F.eks 6ms. Lysintensiteten er der hele tiden så stavene vil ikke oppfatte noen flimring mellom maks og min lysintensitet. Baklyset til LCD fungerer med samme prinsipp som lysstoffrør, men med mye høyere frekvens. 30.000-70.000 Hz er normalt. Disse CCFL-rørene har også fosfor på innsiden som holder lysintensiteten oppe i mange millisekunder etter de slokkes. Siden frekvensen er så høy så vil ikke lysintensiteten rekke å dale før den blir får et dytt igjen. Dermed er lysintensiteten nesten helt konstant og flimrer ikke.

 

CRT dataskjermer sender nytt bilde til skjermen for hver gang strålen sveiper over. Ofte 60-100 BPS.

 

CRT TV får nytt bilde sendt til skjermen hver 2. eller 4. gang strålen sveiper over. Altså 25 BPS (europa) og 30 BPS (USA). Bilderøret sveiper strålen over skjermen med f.eks 50 eller 100 Hz, men altså 2 eller 4 ganger med samme bilde. Dette gjøres for å unngå flimring og ikke for å endre bildet.

 

LCD får nytt bilde sendt til skjermen 50-75 ganger per sekund (60 er klart mest vanlig). Og bildet endrer seg jevnt over de neste f.eks 6 ms.

 

Edit: skrivefeil

Endret av Simen1
Lenke til kommentar
Videoannonse
Annonse

Da har jeg et spørsmål:

 

Jeg har en eldre laptop (en Dell Lattitude C600/C500) hvor baklyset til LCD'en har gått (man kan se hva som er på skjermen om man retter en sterk lampe mot den på fem cm's avstand). Dette skjedde etter at moren min greide å "eksplodere" en cola over den, med den følgen at maskinen ble dynket i ca. 1 liter cola. Jeg demonterte batterier etc. og tørket da maskinen, og den virket (stort sett - baklyset feilet et par ganger og kom tilbake igjen før det endelig gav opp et par måneder etter).

 

Prøvde å skru fra hverandre selve skjermen (ganske kult egentlig), men så ikke noe opplagt galt. Noen idéer?

 

Evt. hadde det jo vært litt gøy å ha den som en gammel amiga med "allt innebygget i tastaturet" uten LCD og en eller annen CRT :p

Lenke til kommentar

krysjo: Det er trolig inverteren til baklysene som er gåen. Hvis den er integrert på hovedkortet er det nok vanskelig å gjøre noe annet med det enn å lage en liten pukkel på PCen med en ny inverter og koble til nye baklys. Jeg gjorde dette selv med en 15" LCD med gåene invertere for noen år siden. (Den gangen 15" LCD fortsatt var fancy)

 

Det kan også hende at det bare er baklysene som er gåen. Dette er veldig billig å skifte ut. (koster en hundrelapp + frakt eller noe i den duren) Men det kan være litt vanskelig å finne CCFL som passer akkurat din skjerm.

Lenke til kommentar
Invertere på bærbare pleier å sitte løst rett under skjermen på bærbare. I hvertfall på alle de jeg har reparert.

6021733[/snapback]

 

Satt et lite kretskort inni der ja... Skal se om jeg får skrudd den opp og postet bilde :) Var en j***lig mange skruer, så jeg tror jeg priorieterer å gjøre ferdig ukesoppgavene i fys-mek...

Lenke til kommentar
Jeg har også hørt at ant. bilder pr. sekund også er avhengig av lysforhold, og har noen eksempler på at dette stemmer - dersom det er mørkt, kan man godt oppleve "lagging" av sterke lyskilder, dvs. at disse drar en "lysende strek" over netthinna som bruker et brøkdels sekund på å "fade bort". Har opplevd et par andre tilsvarende effekter som peker på det samme. Snakker her om "skikkelig mørkt", dvs. såpas mørkt at fargesynet forsvinner og stavene overtar.

6012198[/snapback]

Grunnen til dette er synspurpuren som består av Retinal og Opsin. Dette stoffet er svært lyssensitivt og finnes i stavene. Når synspurpuren blir truffet av lys endrer den form som gjør at det sendes nervesignaler til hjernen og vi danner oss ett bilde i hodet. Etter at dette har skjedd tar det litt tid før synspurpuren går tilbake til sin opprinnelige form.

 

Derfor "henger" sterkt lys som feks en blitz igjen litt på øyet. Tro det den som kan.

Endret av Imposter
Lenke til kommentar
et tillegs spørsmål. Hvorfor må alle ha nermest mulig 100 FPS i CS? når menneskets øye egentlig bare kan oppfatte 16 FPS?

6011277[/snapback]

 

Placebo-effekt.

6012205[/snapback]

 

Aldeles ikke. Hadde du spillt selv hadde du visst dette.

Lenke til kommentar
et tillegs spørsmål. Hvorfor må alle ha nermest mulig 100 FPS i CS? når menneskets øye egentlig bare kan oppfatte 16 FPS?

6011277[/snapback]

sett fps_max til 16, så setter du den til 101. merker forskjell? ja

Endret av Henrik2k
Lenke til kommentar
Hvis du tar bilde med fotokamera og setter kukkertida til f.eks 1/200 sekund...

6019994[/snapback]

Hmmm... Denne innstillinga har ikkje eg på kameraet mitt, i alle fall... Må vere nokon moderne greier... :innocent:

 

(Beklagar at eg går litt "off-topic" her, men eg kunne ikkje dy meg... :p)

Lenke til kommentar

OK, hadde egentlig tenkt å sitere en del her, men det ville blitt for mye. Jeg leste i Illustrert Vitenskap (Edit: Det betyr dog ikke at det er korrekt...) for noen år siden at det menneskelige øye kunne oppfatte omtrent 60 bilder i sekundet, men det er ikke snakk om egentlige sammensatte bilder, da hjernen kontinuerlig får nye impulser fra hver enkelt synscelle, slik at det teoretisk sett kan være celler/piksler som ikke er synkronisert med resten av "bildet". Dette er dog ikke noe man til vanlig oppfatter, spesielt med tanke på at oppløsningen er meget høy.

 

Årsaken til at dataspill oppfattes som hakkete selv opp til 40-50-60 fps, er fordi bildet ikke har motion blur, som noen var inne på tidligere i diskusjonen, og jeg tillater meg å gjenta dette. Film og TV oppfattes som jevn flyt selv om det bare er 25 fps, fordi det har motion blur naturlig. Dataspill krever naturligvis ekstra datakraft for å produsere denne effekten kunstig, og da er det som oftest ikke snakk om å lage noen naturlig effekt for å oppveie for manglende framerate, men heller en overdreven effekt for å gi mer fartsfølelse eller "wow-effekt".

 

Kommer man opp i en framerate som er høy nok, altså godt over 60 fps, vil et dataspill oppfattes som å gå glidende og hakkfritt. Når det gjelder oppfriskningsfrekvensen på katoderørsskjermer, må man (naturligvis avhengig av øyet som ser) opp i 85-100 Hz før bildet oppfattes flimmerfritt, fordi øyets oppdatering ikke er synkronisert med skjermen, slik at det kan oppdateres mellom eller midt i en skjermoppdatering. Overstiger man øyets oppdateringsfrekvens med tilstrekkelig mye, får man en overlappingseffekt.

Endret av jonmagne
Lenke til kommentar
Årsaken til at dataspill oppfattes som hakkete selv opp til 40-50-60 fps, er fordi bildet ikke har motion blur, som noen var inne på tidligere i diskusjonen, og jeg tillater meg å gjenta dette. Film og TV oppfattes som jevn flyt selv om det bare er 25 fps, fordi det har motion blur naturlig. Dataspill krever naturligvis ekstra datakraft for å produsere denne effekten kunstig, og da er det som oftest ikke snakk om å lage noen naturlig effekt for å oppveie for manglende framerate, men heller en overdreven effekt for å gi mer fartsfølelse eller "wow-effekt".

6055000[/snapback]

Hvordan mener du denne naturlige bevegelsesuskarpheten skjer på TV og film men ikke på dataspill?

Lenke til kommentar
Årsaken til at dataspill oppfattes som hakkete selv opp til 40-50-60 fps, er fordi bildet ikke har motion blur, som noen var inne på tidligere i diskusjonen, og jeg tillater meg å gjenta dette. Film og TV oppfattes som jevn flyt selv om det bare er 25 fps, fordi det har motion blur naturlig. Dataspill krever naturligvis ekstra datakraft for å produsere denne effekten kunstig, og da er det som oftest ikke snakk om å lage noen naturlig effekt for å oppveie for manglende framerate, men heller en overdreven effekt for å gi mer fartsfølelse eller "wow-effekt".

6055000[/snapback]

Hvordan mener du denne naturlige bevegelsesuskarpheten skjer på TV og film men ikke på dataspill?

6055345[/snapback]

Lukkertiden i opptaksmediet skaper naturlig motion-blur vil jeg tro.

6055524[/snapback]

Skulle til å si det samme som JBlack, det er lukkertiden i kameraet som skaper naturlig motion blur. Dette skjer fordi objekter beveger seg fra A til B mens et bilde blir tatt. Sett at f.eks. et videokamera har en lukkertid på 40 ms (25 bilder per sekund). Dersom et objekt da flytter seg fra et sted til et annet i løpet av de 40 millisekundene, vil det påvirke piksler i den fotooptiske sensoren i kameraet både på posisjon A, posisjon B og samtlige piksler imellom. Styrken av påvirkningen vil avhenge av hvor lenge objektet var på et sted. Så om objektet står stille vil fargene være klare og skarpe, mens om det er i bevegelse vil fargene fra objektet bli blandet med bakgrunnen i større eller mindre grad, samtidig som de vil se ut som striper i fartsretningen. Det er dette, som altså objekter i bevegelse forårsaker, som kalles motion blur.

 

Det er denne effekten som datamaskiner må gjenskape kunstig. Når en datamaskin tegner opp bilder så raskt den bare kan, vil det ikke bli noen blanding av forgrunn og bakgrunn, eller fartsstriper eller lignende. I tilfellet ovenfor, med 25 bilder per sekund, og hvor et objekt beveger seg fra punkt A til punkt B på 40 ms, vil datamaskinen produsere ett delbilde hvor objektet befinner seg på punkt A og ett hvor det er på punkt B. Begge delbildene vil være knivskarpe, som om de skulle vært tatt med ekstremt kort lukkertid, og hjernen får dermed større vanskeligheter med å se selve bevegelsen. Den eneste måten hjernen kan se bevegelsen på, er å sammenligne de to delbildene i hodet, og finne ut at de to objektene er identiske og altså det samme som har flyttet seg. Når forflytningen foregår tregere enn øyets "framerate" og i tillegg mangler motion blur, oppfattes denne forflytningen som hakkete. Du kan se motion blur i virkeligheten ved å holde hånda opp foran deg med fingrene spredd (ikke foran dataskjermer eller lysrør som flimrer) og vifte den fort fram og tilbake.

 

Men jeg føler jeg må påpeke at de dataspill jeg har sett til nå med motion blur, ikke har hatt noen realistisk slik effekt, men heller en overdrevet versjon for å understreke fartsfølelse, effekter og lignende. Crysis ser i så måte ut til å bli særdeles lovende, med noenlunde realistiske motion blur effekter.

Lenke til kommentar
  • 2 uker senere...

Det blir som med tegneserier. Der understrekes også fart og bevegelser i bildene. Men dette har jo ingenting med flimmer å gjøre da, så det er ikke derfor vi ser forskjell på 60 og 100 Hz på en datamaskin.

Kan det stemme dette med at hjernen bare oppfatter 16 bilder i sekundet. Hvis vi lager en film med 17 bilder i sekundet og lar et av bildene være ildrødt, tror jeg nok vi oppfatter det som en slags forstyrrelse. Hjernen får jo kontinuerlig signal fra øyet...

Lenke til kommentar
et tillegs spørsmål. Hvorfor må alle ha nermest mulig 100 FPS i CS? når menneskets øye egentlig bare kan oppfatte 16 FPS?

6011277[/snapback]

sett fps_max til 16, så setter du den til 101. merker forskjell? ja

6052195[/snapback]

16 blir jo "feigt" da, prøv heller 60? :)

Lenke til kommentar

Men så er det vel sansynelig at øyet oppfatter "pixlene" (sansecellene) separat - i motsetning til et kamera hvor alle leses av samtidig med et vist intervall. Sansecellen sender ut en impuls når synspurpur'et oppfatter et foton, uavhengig av hva de andre cellene gjør.

 

Det finnes også to typer sanseceller i øyet - noen ser farger og detaljer (tapper), mens andre kun oppfatter lysintensiteter, men er mer følsomme (og raskere?)

 

I tillegg går billedtolkningen i hjernen i flere "lag" - først oppfattes bevegelse, ting som utgjør en trussel, videre enkle konturer etc. Deretter plukkes lag for lag av, helt til man står igjen med skarpe detaljer i farger.

 

Kansje det er det høye FPS'er hjelper for - man kan tidligere oppfatte en bevegelse, selv om man ikke klarer å plukke ut detaljene?

 

Men hva skjer dersom man har høyere FPS en skjermen klarer? Endrer bildet seg under en oppdatering, så bildet i (f.eks) bunnen av skjermen tilhører en nyere frame en bildet i toppen? Eller vil DA-konverteren i skjermkortet kun lese ut av VRAM'en når den skal tegne ett nytt bilde (nå tenker jeg analogt)?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...