Gå til innhold

Megapixel-ræs og små objektiver


Anbefalte innlegg

Jeg synes at der trænger til lidt tal på hvad det egentligt er der er galt med det her megapixel-ræs, særligt med småobjektiver.

 

Jeg tænker her på hvilke FYSISKE og BIOLOGISKE lofter der stødes imod, uanset hvor ideel elektronik, optik og lysforhold er.

 

Håber at nogle andre har lyst til at supplere og/eller korrigere nedenstående, så vi her kan få samlet nogle facts som folk kan bruge.

 

Jeg vil løbende søge at redigere dette indlæg, efterhånden som jeg får mere information, eller for at gøre noget nemmere at læse/forstå.

 

Der er i hvert fald to fysiske og en biologisk ting der er interessante.

(se forklaringer nedenfor)

 

1) Termisk støj.

(for fastholdt fysisk sensorstørrelse)

Relativ støj stiger med 1/d, √N og √T
, (N antal sensorer i Mpixels, d sensordiameter)

(T målt i kelvin, dvs °C+273.15)

 

2) Rayleighs kriterium og sensorbredde.

F * √N < W
, (N antal sensorer i Mpixels, W i mm,
rødt
lys, F blændetal)

 

3) Øjets opløsningsevne i praksis

 

Opløsning over
1/6000 af betragtningsafstand
gavner ikke

 

 

ad 1)

For en given sensortype og temperatur er (så vidt jeg har forstået) den absolutte størrelse af den termiske støj propertional med kvadratroden af arealet på pixel-sensor, mens signalet er propertionalt med arealet på den enkelte pixel-sensor. Derfor er den relative støj omvendt propertional med kvadratroden af arealet på pixel-sensor (og derfor omvendt propertional med bredden på pixel-sensor). Men da arealet på den enkelte pixel-sensor jo er omvendt propertionalt med antallet af pixels på en billed-sensor af et givent areal, så når vi frem til at : den relative støj er propertional med kvadratroden af antallet af pixels på en billedsensor af et givent areal.

Det vil sige: at hver gang en billedsensor af samme størrelse får fire gange så mange pixels, så skal de enkelte sensorer være dobbelt så gode for ikke at give mere relativ støj!

(rettet, og forsøgt at præcisere - igen)

 

Da den enkelte pixelsensors areal selvfølgelig også er propertional med arealet på hele sensoren for fastholdt N, vil den relative støj også være omvendt propertional med hele sensorens diameter.

 

Støjen stiger også propertionalt med kvadratroden på den absolute temperatur. (Altså målt i Kelvin, dvs Celciustemperatur+273.15)

Det vil sige at ved -40°C er termisk støj 11% mindre end ved +20°C, og ved 100°C er den 13% større end ved 20°C. Fx √((273.15+100)/(273.15+20))≈1.13

Så det ses altså at temeraturafhængigheden er forholdsvis moderat, selv ved brug i stærk frost, eller ved intensiv brug hvor kamera er ved at overophede. (Der er sikkert nogle plastic dele der bukker under inden de 100°C nåes...)

 

Håber at nogle andre kan sige noget mere konkret om 1) :whistle:

 

 

ad 2)

Har forsøgt så godt jeg nu kan at regne lidt på Rayleighs kriterium

Fra fx

 

har vi en grænse for den minimale pixelstørrelse på sensor:

1.220 * λ * f / D < Δl

hvor f er fokallængden, λ bølgelængde, og D er aperture-diameter. De 1.220 er empirisk konstant relateret til øjets opfattelse af Airy-disc, dette tal kan nok reduceres lidt ved elektronisk detektering.

 

Med et antal pixel i bredden Nw må der være en minimal billedsensorbredde W givet ved:

Nw*Δl < W

 

Hvis vi sætter de to sammen og bruger at f/D er F blændetal for objektiv så får vi

Nw * 1.220 * λ * F < W

 

Hvis vi antager rødt lys 700nm (grønt og blåt giver svagere krav), så har vi:

Nw *
854nm
* F < W

Og af en numerisk tilfældighed[*] vil det kunne skrives som følgende, der er NOGET nemmere at huske, for den teoretisk mulige absolut mindste sensor bredde:

F * √N < W
, (N antal sensorer i Mpixels, W i mm,
rødt
lys, F blændetal)

indenfor +1.4% (4:3) hhv -4.6% (3:2). Og det er rigeligt nøjagtigt!

[*]For talnørder: Nw*854nm ≈ 1mm*√(N/Mpixels) da N=Nw*Nw/AspRat og 0.854*√AspRat≈1 da √(3/4) / 0.854 = 1.014 og √(2/3) / 0.854 = 0.956

 

Et par eksempler

F *
2.2mm
< W , for 5 Mpixel

F *
3.5mm
< W , for 12 Mpixel

F *
4.0mm
< W , for 16 Mpixel

 

Hvis vi nu ser på megapixelræset, og specielt tager mobiltelefoner, med deres latterligt små linser, og ser på de efterhånden udbredte 5Mpixel (de er endda begyndt med 12MPixel :cry: ) så siger jeg ikke at dette er umuligt, men det kræver en RIGTIG RIGTIG god linse tæt på F=1 i de dimensioner... :roll:

Tilføjelse: Jeg må nok æde noget af det her i mig igen, for ser at Nokias N8 faktisk er udstyret med en sensor på 1/1.83" og optik med F2.8 (uden zoom) se indlæg #31

 

 

ad 3)

Der trives en ret udbredt påstand om at den højeste opløsning man kan se er 300dpi. Dette giver faktisk kun mening i en given afstand!!! Denne afstand er cirka 50cm (se nedenfor).

 

Jeg har lavet lidt simple eksperimenter med mig selv, ved at se på hvilken afstand jeg kan skelne subpixels på mine forskellige skærme, og efter lidt regneri, kan jeg konkludere, at som 'gammel mand' på 45(da jeg testede) med 'øjenkrykker' cool.gif så kan jeg se en opløsning på cirka 0.020°.

(Såkaldt "20-20 vision" regner man normalt som 1 bueminut, eller ca 0.017°)

Det vil i mere forståelig tale sige at en pixelstørrelse under 1/3000 (=Tan 0.020°) af betragtningsafstand, ikke gavner mig.

Hvis vi nu antager at unge med gode øjne har dobbelt så godt syn, så lad os sige 1/6000. Her et par eksempler på hvilken afstand man så skal væk fra en given opløsning, for at pixel ikke kan ses:

6000dpi afstand mindst 1 tommer, eller 2.5cm,
(de færreste kan nok fokusere så tæt på...)

1200dpi afstand mindst 5 tommer, eller 13cm

300dpi afstand mindst 20 tommer, eller 50cm
[**]
, egnet til almindelige A4-breve

75dpi afstand mindst 80 tommer, eller 2m, egnet til større plakater, mindre bannere

10 dpi afstand mindst 600 tommer, eller 15m, egnet til store udendørs bannere

(Eller læst omvendt: Mindste opløsning ønskelig for given betragtningsafstand)

[**] Det passer også med at man kan se forskel på kvalitet af laserprint med 300dpi og 600dpi hvis man tager det tæt på

 

Så hvis vi kunne erstatte 300dpi-myten med

1/6000 af betragtningsaftand

ville det være fint.

 

Dette viser også hvorfor det er så ELENDIGE billeder man ser i digitale biografer, hvor de blæser 2048 pixel op på et stort bredt lærrede. For man skal altså sidde tre (6000/2048) gange lærredsbredden fra lærredet!!!! Digitale 2K film skal altså ses på de bagerste 'kysserrækker' (Max 19° i bredden =2Atan(1/6)), mens vi filmnørder må afvente 4K (så kan vi komme 'op' på 37° af synsfeltet), eller glæde os over at ikke alle nye film er digitale (endnu).

:devil: Eller glæde sig over at efterhånden som man bliver gammel kan man alligevel ikke se elendigheden :devil:

(2K film på et 5m lærredet svarer til de 10dpi nederst på listen)

(Uddybet 20100718)

...Og så er det en helt anden snak at særligt 3D ser forfærdeligt ud fordi der er for få billeder per sekund, når man kun har hvert anden frame til hvert øje, så 3D er ubrugeligt til andet end 'stillbilleder' hvis ikke med MINDST 50Hz (der giver 2 x 25fps), skal det være flot skal vi op i mindst 100Hz (der giver 2x50fps).

 

(Tilføjelse 20/12:)

Men bemærk at det ikke er det samme som at man skal have 1/6000 af betragtningsafstand for at få acceptable billeder. Lavere opløsning kan sagtens gøre det, da øjet er rigtigt dygtigt til at 'glatte ud' (jvf elendig opløsning på tv). Det er en grænse der siger at højere opløsning end dette er meningsløst, og at man ved lavere opløsning måske kan se de enkelte pixels, hvis man kigger godt efter.

 

Hvis man skal udfylde hele det 'almindelige' synsfelt (ca 30° til hver side, altså lidt mindre afstand til motivet end bredden af motivet) og ikke kunne se enkelt-pixels er grænsen altså ca 7000pixels i bredden, og noget mindre i højden. Men igen er dette ment som et ekstremt 'krav' forstået som at opløsning ud over dette er meningsløst. Så der er altså overhovedet ingen mening i at gå højere end 8K for projektorer. Formentligt vil de færreste have nytte af at man går over 4K. Men 2K (full HD) kan gå til TV, men er for ringe til at fylde hele synsfeltet.

 

 

 

Tilføjelse 2009-08-12 , ad 2)

 

Her lidt tilrettet kopiering fra anden tråd: Hvor skal dette ende? #192

Her har Globerotta fundet dette link der giver os en postuleret[***] grænse på 275Mpixel for grønt lys med en fullframe sensor og F2.8

Her er fasiten: http://tinyurl.com/llwxyz;-)
Dette er under ideele forhold, men hvis vi nu tager de 275Mpixel for gode varer, så har vi i hvert fald en øvre grænse.

 

Med udgangspunkt i denne tabel over sensorstørrelse http://www.dpreview....sensorsizes.asp har jeg udvidet med en søjle med forhold af areal til fuldframe-sensor, og en forholdsregning af de 275Mpix under ideele forhold og F2.8. Har desuden tilføjet lidt mellemliggende rækker (data via wiki). (Og fjernet lidt søjler for at gøre det mindre uoverskueligt)

 

(Bemærk at reel sensordiagonal er omtrent 2/3 (63%-72%) af reklame-tal!! En 1/2" sensor er altså effektivt kun cirka 1/3" eller 8mm)

 

Det giver følgende: [2011-06-05, opdaget flere regnefejl, de sidste tre kolonner var på de fleste nogle procent forkerte]

 

Sensor Asp. Bredde Højde x*Fuld   MPixel   MPix F2.8
1/3.6" 4:3  4.000  3.000 1/72.0   29.9/F²	3.8
1/3.2" 4:3  4.536  3.416 1/55.8   38.7/F²	4.9
1/3"   4:3  4.800  3.600 1/50.0   43.1/F²	5.5
1/2.7" 4:3  5.270  3.960 1/41.4   52.1/F²	6.6
1/2.5" 4:3  5.760  4.290 1/35.0   61.7/F²	7.9
1/2.3" 4:3  6.160  4.620 1/30.4   71.0/F²	9.1
1/2"   4:3  6.400  4.800 1/28.1   76.7/F²	9.7
1/1.8" 4:3  7.176  5.319 1/22.6   95.1/F²   12.1
1/1.7" 4:3  7.600  5.700 1/19.9  108.1/F²   13.8
1/1.6" 4:3  8.080  6.010 1/17.6  122.2/F²   15.6
2/3"   4:3  8.800  6.600 1/14.9  144.9/F²   18.2
1/1.2" 4:3 11.000  8.250 1/9.53  226.4/F²   28.9
CX	 3:2 13.200  8,800 1/7.44  289.9/F²   37.0
1"	 4:3 12.800  9.600 1/7.03  306.6/F²   39.1
μ4/3   4:3 17.300 13.000 1/3.84  561.2/F²   71.6
4/3"   4:3 18.000 13.500 1/3.56  606.4/F²   77.4
APS-C  3:2 25.100 16.700 1/2.06 1046.0/F²  133.4
APS-H 13:9 29.200 20.200 1/1.46 1471.9/F²  187.7
35 mm  3:2 36.000 24.000 1.0000 2156.0/F²  275.0 ◄-Udgangspunkt
645	4:3 56.000 41.500 2.6898 5799.2/F²  739.7

Heraf kan man se at med udgangspunkt i de 275MPixel for fullframe under ideele forhold og F2.8, så er de tilsvarende tal for en

1/2.5"
sensor
7.9Mpixel

og for den efterhånden ret udbredte

1/1.8"
sensor
12Mpixel

(Netop det vi er nået til), for

1/1.7"
sensor
14Mpixe
l

Men husk at disse tal er under ideele forhold og F2.8, så reelt er grænserne for meningsfuldt Megapixel-antal lavere.

(Hvis man fx har F5.6 skal tal for megapixels deles yderligere med fire!)

Bemærk at trediesidste søjle "x*Fuld" er omtrentligt (indenfor en justering for forskellig cropfaktor på et par procent for 4:3) en over kvadratet på cropfaktor. En 1/3" sensor med areal-faktor 1/50 svarer således til cropfaktor 7

 

[***]Det ses at tal passer fint med ovennævnte formel fra Rayleighs kriterium

Nw * 1.220 * λ * F < W

Med grønt lys λ=520nm og F2.8 giver det

 

Nw *
1776nm
< W

og W=36mm modsvarer derfor Nw<20267, og med 3:2 betyder det 274Mpixels (=Nw*Nw*2:3), så det er jo nok den formel der har været brugt.

Da de indgående 1.220 er relateret til øjets opfattelse af Airy-disc, kan denne konstant nok reduceres lidt ved elektronisk detektering, men omvendt er der regnet på grønt lys, hvor rødt lys er en værre begrænsning, så tal i tabel holder nok nogenlunde alligevel, men skal bestemt ikke tages som eksakte (som decimaler ellers kunne antyde).

 

_______________

 

Rent empirisk kan man tage Ricoh CX1 som eksempel, der angiveligt har F3.5 og lille 1/2.3" sensor med 9.3Mpixel, det burde af tabellen være 1.6 gange over grænsen på 71.0/3.5²=5.8Mpixel, men jeg kan se at indzoomet så har hver enkel pixel fornuftig information. Zoom fx godt ind på dette makro-udsnit hvor de enkelte pixels omkring mikroskriften er distinkte, (man kan endda ane hvor hologram-folien bliver bøjet op af papirfibre og forstyrer billedet)

Men vi er tæt på!, for se dette klip med endnu mindre mikro-skrift, hvor der er pixel man skulle mene skulle have en anden farve.

CX1 er jo endda blot et ordinært "konsument kamera" og ikke et "entusiast kamera".

(Tilføjelse) Men vi nærmer os, CX3 BURDE kunne vise en del finere detaljer, da det både kan lave makro af mindre udsnit, og med højere opløsning (jvf afsnit om makro af min anmeldelse ax CX3), men det er kun marginalt bedre.

 

Efterlysning: Er der nogen der har et kamera hvor de selv under de bedste lysforhold og ved skarpt billede ikke har distinkte informationer i hver pixel selv hvor billedet er bedst, hvis der zoomes ind på resultatet på pc-skærmen?

Et godt gæt på et 'problembarn' kunne være "Nikon Coolpix S6100", med 1/2.3" F3.7, der har sensor på hele 16Mpixel, der jo er hele 3.1 gange over tabellens grænse på 71.0/3.7²=5.2Mpixel

Eller måske en telefon??

 

(Rettelse: Ændret et par ting så det kan læses i det nye forum-layout, 2010-03-27)

 

2012-03-18: Jeg har forsøgt at gendanne ovenstående så meget som muligt efter seneste forum-opgraderings ødelæggelser... :dremel::grumpy::sick: Desværre er der nu automatik der smadrer formateringen hver gang man gemmer, ved indsættelse eller fjernelse af tomme linier og mellemrum, selv om forhåndsvisningen er ok, så det er lidt et lotteri.... :sick:

 

2013-04-04: Jeg har forsøgt atter at gendanne ovenstående så meget som muligt efter seneste forum-opgraderings ødelæggelser... :dremel::grumpy::sick:

Endret av EskeRahn
  • Liker 3
Lenke til kommentar
Videoannonse
Annonse

Du har noen interessante betrakninger her (og tung matematikk - noe for k-ryeng).

 

Fint at du nevner termisk støy - det diskuterer vi ikke så ofte.

 

Det som skulle vært interessant, er å vite hvor stor prosent andel av fotoner som fanges av en sensor pixel, i forhold til teoretisk maksimum.

 

Tom

Lenke til kommentar
Det som skulle vært interessant, er å vite hvor stor prosent andel av fotoner som fanges av en sensor pixel, i forhold til teoretisk maksimum.

 

Tom

 

God og interessant pointe. :thumbup:

 

Men der er bare så utroligt mange led der indgår, der alle forringer med en større eller mindre faktor, at det nok bliver svært at få fornuftige tal ud af det.

 

Så skal det være noget hvor man laver en teoretisk sammensætning af alle de med den nuværende teknologi bedst kendte elementer, og deres tab.

 

I den almindelige lysgang vil (i hvert fald) følgende tabsfaktorer indgå (Foveon lidt anderledes)

Tab i optik inklusive eventuelle forfiltre

 

Relativt areal af subpixellinser i forhold til pixel

(Ideelt: R,B=1/4 og G=1/2, reelt nok en god del mindre, af de tegninger man ser, er vi nok nede på det halve)

Tab i Bayerfiltre, (her tænkes ikke på farvetabet der er med i pkt før)

 

Tab i suppixellinser

 

Virkningsgrad af sensor

Altsammen noget det kunne være vældigt spændende at få tal på. Og ikke mindst hvor stor forskel der er på de forskellige typer og fabrikatter.

Lenke til kommentar
  • 1 måned senere...

Ikke minst viktigheten av optikk. Noe jeg alltid ble forvirret av før jeg virkelig gikk inn i fotoverdenen var testene av effektiv oppløsning på et kamera. Jeg gikk ut fra at et kamera med 5 megapiksler hadde 5 megapiksler.

 

I ettertid tenker jeg på at det kanskje burde vært forklart i testene? Bare en tanke.

Lenke til kommentar

Hmm, jeg leser den første posten og henger meg opp i utregningene dine.

Jeg er ikke enig i de avstandene og det oppløsningskravet du kommer frem til.

 

Det er jo "opplest og vedtatt" at til 10x15 (10x13) bildestørrelse utskrift er det nok med 2mp. Bruker vi dine beregninger må en jo ha 6mp for denne utskriften for normal betraktningsavstand på ca 30cm.

 

(6000/30)x15=200dpc. For 3/2-kamera blir det jo 6mp og for 4/3 kamera (10x13) 5,2mp.

 

Kanhende helt rent teknisk at formlene "holder vann" men blekkutflytning og/eller utflyt i kjemien og oppløsningen i selve fotopapiret vil ha en større virkningsgrad slik teknologien er i dag. Såvidt jeg vet er det ingen i konsumentmarkedet, hverken fotobutikker eller printere som klarer å lage en helt avgrenset perfekt rund (eller kvadratisk) "pixel" eller punkt med oppløsning på over 300dpi/120dpc. Punktene vil uansett flyte over i hverandre på papiret og da kan en ikke skille "høyere" oppløsning på en utskrift.

 

Det jeg vil presisere av ovenstående: Printeren klarer sikkert høyere oppløsning, men *papiret* vil "blø ut" blekket, og derved forringe oppløsningen. Dette mener jeg også vil gjelde for fotokjemisk papir.

Lenke til kommentar

Jeg vil også bidra litt her.

 

Om punkt 1 så sier du at termisk støy er konstant. Det er det vel ikke? Termisk støy er så vidt meg bekjent noe som er avhengig av størrelsen på det statistiske utvalget man måler temperaturen/termisk støy på. Hvis man har et termometer med 1 mikrometer utstrekning i målepunktet så vil man få store variasjoner på grunn av tilfeldigheter i de termiske bevegelsene til støv og partikler rundt sensoren. Dette gjør det blant annet umulig å måle nøyaktig temperatur på ting man typisk ser i elektronmikroskoper. For å komme litt tilbake til fotosensorer så betyr det at en stor fotosensor vil ha et lavere termisk støygulv enn en liten fotosensor. Mobiltelefoner har som regel de aller minste pixlene og dermed et ganske høyt termisk støygulv. Dette kommer i tillegg til den statistiske støyen man får på grunn av lavt antall fotoner som treffer pixelen.

 

Ellers så vil jeg nevne et annet tørt faktum om begrensninger på små kameraer. Det er blenderåpning vs pixelstørrelse. På vanlige kameraer får man begrenset oppløsning ved små blenderåpninger grunnet diffraksjon. Det vil si at lysets bølgenatur vil være framtredende og gjøre at lyset bøyes svakt av ved kanten på blenderåpningen og danner et diffust bilde på sensoren. Spredningen er i størrelseorden noen mikrometer ved f/16 på et vanlig speilreflekskamera. Jo mindre pixlene er jo flere pixler vil lyset bli diffusert ut over. Mobilkamerasensorer har så små pixler at diffusjonen vil bli et framtredende problem allerede ved ca f/2,8.

 

Objektivene som lages for speilrefleks har et spenn i blenderåpning som ofte er mellom f.eks f/3,5 og f/32 på zoomobjektiver og mellom f.eks f/1,4 og f/22 på fastobjektiver. Poenget med å ha justerbar blenderåpning er å kunne tilpasse kameraet til et stort spenn av ulike lysstyrker. Mobilkameraer har som regel ikke et slik spenn. De har en fast blenderåpning med f.eks f/2,0 eller f/2,8. Det gjør at de er "tilpasset" kun en mengde lys og må bruke andre triks (ISO og lukkertid) for å justere lysmengde. Det vil si mindre fleksibilitet. Det er heller ikke noe poeng med variabel blenderåpning på mobilkameraer på grunn av at diffusjon gjør bildene veldig uskarpe allerede ved rundt f/4-5,6. Objektiver med blenderåpninger på f/1-2 er plasskrevende, dyre og vanskelige å lage så det vil neppe bli kombinert med mobiltelefoner. Hadde man hatt fysisk større pixler ville det vært mer poeng med variabel blenderåpning. En slik kameramodul vil da kunne brukes i et større område av lysintensiteter.

 

Selektiv fokus (dybdeskarphet) er et annet moment med mobilkameraer. Siden blenderåpnignen er fast så er også dybdeskarpheten gitt. Det er umulig å manipulere dette på noe vis slik det er på speilrefleks. Nå vil sikkert noen mene at man bør tilstrebe å ha alt fra forgrunn til bakgrunn skarpest mulig på alle bilder, men det mener ikke jeg. Jeg mener det er godt å kunne velge dybdeskarpheten selv. Noen ganger blir det svært pent med kun forgrunn, midt, eller bakgrunn skarpt. Jeg foretrekker i hvertfall å kunne velge selv ut i fra motiv, smak osv.

  • Liker 1
Lenke til kommentar
Hmm, jeg leser den første posten og henger meg opp i utregningene dine.

Jeg er ikke enig i de avstandene og det oppløsningskravet du kommer frem til.

 

.

.

Tak for input, rart med noget respons i sagen *G*

 

Nu siger jeg ikke at billeder bliver dårlige med lavere opløsning end 1/6000 af betragtningsafstand. Tallet er estimattet for den fysisk/biologisk grænse vi kan skelne. Så den siger bare, at bliver det lavere, så kan man måske skelne pixels. Og at det i hvert fald er meningsløst at gå til højere opløsning.

 

Men nu har øjet jo en fantastisk evne til at 'glatte ud'. Bare tænk på at vi gladeligt accepterer den gyselige opløsning på et tv, som sammenhængende billeder. Det er fordi at særligt ved bevægelse glatter øjet godt. Men et still-billede på tv ser vi jo straks som pixeleret, men det er ikke det samme som at vi ikke kan holde ud at se på det...

 

Derfor kan man også SAGTENS få et fuldt anvendeligt resultat med en lavere opløsning

Lenke til kommentar
Jeg vil også bidra litt her.

 

Om punkt 1 så sier du . . .

Tak for bidrag. :)

Jeg tror nu ikke vi er så uenige.

 

Min viden om termisk støj er YDERST begrænset, men højden af det 'støjgulv' der er ved udlæsning fra en (sub)pixel er propertionalt med kvadratroden af (sub)pixelens størrelse. Men signalet er direkte propertionalt, så derfor vil det RELATIVE signal/støjforhold blivere ringere ved mindre (sub)pixel, og hvis jeg har forstået ret nogenlunde lineært med kvadratroden af areal på (sub)pixel.

(edit 26/12, Her stod noget sludder hvor jeg videreformidlede at den absolute støj var uafhængig af sensor størrelse. Dette er så ikke rigtigt :blush: )

 

Ad blendeåbning, så er det vel netop det der indgår i 2) Rayleighs kriterie. , og som også indgår i F-tal i udtrykket for den teoretisk mulige absolut mindste sensor bredde jeg forsøger at lave - eller misforstår jeg det du skriver?

 

Og ja, justerbar blendeåbning er en 'luxus' som der nok er ganske langt til at kunne 'have råd til' på et mobilkammera, som kæmper med bare at få anstændige billeder :cry:

Endret av EskeRahn
Lenke til kommentar
Jeg er ikke den som skjønner alt som blir sagt, man hva er termisk støy? Jeg vet at viss du har kompakt kamera med 50megapixel så kommer det noe ****** støy.

se fx http://en.wikipedia.org/wiki/Thermal_noise , støj er propertional med kvadratroden af den absolutte temperatur målt i Kelvin.

 

I lidt mindre teknisk tale :blush: , så betyder det at der ALTID vil være støj fra en elektrisk sensor, når temperaturen er over det absolutte nulpunkt 0K (-273°C). Og jo varmere jo værre. (Det er derfor man køler finere sensorer til fx astronomiske teleskoper ned med fx flydende Nitrogen eller Helium)

 

Der er desværre en del sjusk ved brug af begreber, da man i daglig tale med "støj" faktisk oftest ikke mener den absolute størrelse af støjen, med støjen relativt til signalet. Men lad os først se på den absolutte.

 

Der vil fx kunne forventes 11% mere støj på billede taget i 40°C end i -20°C (=kvadratrod af (273+40)/(273-20)). Så temperaturafhængigheden betyder ikke det store i almindelige temperaturer.

Men hvis du teoretisk er ond ved dit kamera og stopper det i ovnen ved 275°C, så vil du få 40% mere støj end ved frysepunktet - og nej test det ikke, dele i dit kamera smelter nok :tease:

 

Nu kommer vi så til de mere interessante, den relative støj.

Lad os antage et ensfarvet motiv, for ikke at gøre det (endnu) mere kompliceret - i hvert fald i første omgang.

Signalet fra en pixel-sensor er selvfølgelig nogenlunde propertionalt med det antal fotoner der rammer, og derfor med arealet af pixel-sensoren.

 

Der gælder ikke helt det tilsvarende for støj, der jo er tilfældig (det er jo problemet med den...)

Da støj vil være forskellig, vil den delvist ophæve hinanden.

Jeg TROR nok (hvis jeg husker ret fra skolen...) :blush: at den absolute støj fra et område 'kun' stiger med kvadratroden af arealet (altså er propertional med kantlængden af kvadratisk pxel-sensor)

 

Det vil sige at den relative støj (=støj/signal) falder med kvadratroden af pixelstørrelsen. Det vil sige hvis en pixel bliver fire gange så stor, så vil den have halvt så meget relativ støj. Fordi den absolute støj 'kun' bliver dobbelt så stor, men signalet fire gange så stort, bliver den relative støj halvt så stor (2/4 = 1/2)

 

Hvis hele sensoren har samme størrelse, så vil derfor fire gange så stor opløsning betyder fire gange mindre pixel, og derfor dobbelt så meget termisk støj relativt til signalet.

 

Nu bliver det ikke helt så galt i praksis, når man sammenligner gamle og nye kameraer, da man får bedre sensorer der giver bedre signal.

Men HVIS man lavede en 6Mpixel full frame sensor med dagens bedste teknik og en 24Mpixel full frame sensor med samme teknik, så ville den første have halvt så meget relativ termisk støj per pixel som den anden.

 

Begrebet pixel-binning, hvor man betragter fx 2x2 pixels som EN pixel kan derfor forbedre signal/støjforholdet med en faktor 2, på bekostning af en reduceret opløsning med en faktor 4. Nogle sensorer tilbyder dette direkte (fx foveon)

 

Man kan også lave noget der minder om ægte pixel-binning ved at gøre dette i software bagefter. Hvis vi udskriver to billeder fra vores teoretiske 6 og 24Mpixel sensorer fra før med opløsning der svarer til de 6Mpixel, så vil det være det der sker.

 

Nu er det sidste kun for princippet, og holder ikke i praksis, da ikke alle de pixel vi lægger sammen vil have ens signal på et ikke ensfarvet motiv - men det er en helt anden diskussion. :D

 

Tillæg:

Bemærk at lukketiden vil indgå helt som arealet i ovenstående. Der skal altså fire gange så lang lukketid til, for at få halvt så meget relativ termisk støj.

Endret av EskeRahn
Lenke til kommentar

Jeg må vist æde noget af det jeg har skrevet i flere tråde I mig igen. :blush:

 

Sub-pixel-binning bør (i hvert fald teoretisk) kunne kompensere for mindre sub-pixels.

Sålænge det samlede areal af de sammenbundne pixels er det samme som den større sub-pixel, så bør den relative termiske støj være den samme.

Dette forudsætter 'blot' at den andel af de indkomne fotoner der rammer totalsensoren er det samme. Eller sagt på en anden måde at det totale spildareal mellem de enkelte sub-pixels er det samme. Altså at når opløsning bliver større og dermed pixels bliver mindre så skal hjælpekredløb også blive det, med samme faktor.

(og så selvfølgelig at effektivitet af sensor og andre faktorer er konstant)

 

Dette bekræfter så min empiriske opfattelse af at F50/F60 med 12Mpixel brugt i 6Mpixel mode ikke giver væsentligt ringere lysfølsomhed end F30 med 6Mpixel. (Sensor 6% mindre på hver led, og samme eller en anelse mere lysstærk optik i F30)

 

Så mit 'korstog' mod megapixel-ræs holder vist kun hvis man IKKE laver pixel-binning. :whistle:

Lenke til kommentar
Så mit 'korstog' mod megapixel-ræs holder vist kun hvis man IKKE laver pixel-binning. :whistle:

Pixel binning er i praksis det samme som å senke oppløsningen. Så korstoget ditt mot stadige økninger av megapixler er fult gyldig fortsatt.

 

Bare et spørsmål: Stemmer det at statistisk varians halveres dersom datamengden blir fire ganger så stor? Jeg tenker da på software pixel binning av 4 subpixler.

 

Her er forresten et par interessante lenker:

http://www.sprawls.org/ppmi2/NOISE/

http://www.ph.tn.tudelft.nl/Courses/FIP/no...fip-_Noise.html

http://homepages.inf.ed.ac.uk/rbf/HIPR2/noise.htm

Lenke til kommentar

Subpixelbinning er litt problematisk med bayer-sensorer, siden nabopiksler har forskjellige filterfarger. Man får ikke til "ekte" pikselbinning siden man må slå sammen målinger fra fotodioder som ikke er direkte naboer, og den reelle detaljgjengivelsen blir da dårligere enn selv det den reduserte oppløsningen skulle tilsi.

Lenke til kommentar
Subpixelbinning er litt problematisk med bayer-sensorer, siden nabopiksler har forskjellige filterfarger. Man får ikke til "ekte" pikselbinning siden man må slå sammen målinger fra fotodioder som ikke er direkte naboer, og den reelle detaljgjengivelsen blir da dårligere enn selv det den reduserte oppløsningen skulle tilsi.

Det er jeg faktisk ikke helt sikker på er rigtigt.

Når man normalt slår 2x2 R-G-G-B sammen til en pixel, så giver det ganske rigtigt de problemer du beskriver.

Faktisk er det jo så grelt at man ud af de 2x2 R-G-G-B 'GÆTTER' sig til fire fulde RGB pixels!! Og det giver endnu større rissiko for fejl. (edit: ved godt man også kigger på nabo pixels, men man 'opfinder' stadig info, deraf moiree effekter)

Hvis man skal bygge pixel af mange mindre vil fejlene blive mindre. Jo mere binning jo bedre faktisk.

 

Lad os prøve at lave et eksempel: Vi har et A4-ark som vi skal have ensfarvet, og ønsker at finde farven. I den klassiske beyer 2x2 ser vi på mængden af rødt i den ene fjerdedel, mængden af blåt i den modstående, og mængden af grønt i de to sidste. Hvis vi i stedet kan bygge den op af mindre subpixels får vi et mere fintmasket net, og vi vil derfor have større sandsynlighed for at ramme tættere på det 'rigtige' gennemsnit af farve.

 

Men jeg TROR det er vigtigt at binning sker INDEN de bygges til de pixel vi normalt ser som output. Altså som processering af de rå data. Jeg ved desværre ALT for lidt om statistik og støj til at kunne sige noget sikkert her. Er der nogle med de nødvendige kundskaber der kan hjælpe os her?? :hmm:

Endret av EskeRahn
Lenke til kommentar
Så mit 'korstog' mod megapixel-ræs holder vist kun hvis man IKKE laver pixel-binning. :whistle:

Pixel binning er i praksis det samme som å senke oppløsningen. Så korstoget ditt mot stadige økninger av megapixler er fult gyldig fortsatt.

 

Bare et spørsmål: Stemmer det at statistisk varians halveres dersom datamengden blir fire ganger så stor? Jeg tenker da på software pixel binning av 4 subpixler.

 

Her er forresten et par interessante lenker:

http://www.sprawls.org/ppmi2/NOISE/

http://www.ph.tn.tudelft.nl/Courses/FIP/no...fip-_Noise.html

http://homepages.inf.ed.ac.uk/rbf/HIPR2/noise.htm

Hvis det er rigtigt at pixel-binning er det samme som at reducere opløsning. Så er alle glade! For så kan vi med samme sensor lave BÅDE billeder med høj opløsning når lyset er til det, og billeder med reduceret opløsning/pixel-binning når der mangler lys. Så får vi jo det bedste fra begge verdener: Den gamle lavopløste lysfølsomme, og den nye højopløste.

 

Jeg har ikke læst dine links igennem (endnu), og må indrømme at min viden om sandsynlighedsregning og statistik, er i det kedelige grå felt mellem rusten, dårlig og manglende... :blush:

Men jeg MENER nu at huske at den absolute støj kun stiger som kvadratroden af antal samples (og dermed kvadratrod af pixelsstørrelse).

Er der ikke nogle statistikkere der kan hjælpe os på plads her?

 

Som knytinh foreslår i anden tråd (innlegg 65 "Hvilket kamera har de beste råfilene?"), så kunne det vær vældigt spændende at få nogle målinger af pixel-binning. Var det ikke noget for Akam? fedte fedte :dribble::innocent::whistle:

Lenke til kommentar
Beklager om dette blir en avsporing, men det kunne vært interessant med spesialutgaver av kameraer der fargefiltrene er fullstendig fjernet. Det vil bety sort/hvitt bilder og mye bedre lyssensitivitet/ISO.

 

Et kompromiss er Kodaks sensorteknologi med 50% sensorer uten filtre + 50% med fargefiltre.

Hmm nu skriver du farvefiltre fjernet. Er du sikker på du ønsker det? Vil du ikke snarere have filtre der er åbent for synligt lys? Uden filtre er der en del IR der vil drille. Men det kan der sandelig også komme fantastiske billeder ud af (jvf fx det meget specielle kameratekniske mesterværk Я Куба af Mikhail Kalatozov, fotograf Sergei Urusevsky)

 

Og ja der er lidt off-topic. Men filtre er jo en MEGET vigtig del af det tab vi har med beyer (cirka 67%) så helt irrelevant er det bestemt ikke.

 

Det kunne jo også bruges som variant af pixel-binning. Og det ville jo være genialt hvis filterene lå som LCD der kunne slås fra on the fly!!! Så kunne man også bygge kombinerede billeder af farve og lysintensitet umiddelbart efter hinanden. :dribble::dribble:

Lenke til kommentar
Det er jeg faktisk ikke helt sikker på er rigtigt.

Når man normalt slår 2x2 R-G-G-B sammen til en pixel, så giver det ganske rigtigt de problemer du beskriver.

Faktisk er det jo så grelt at man ud af de 2x2 R-G-G-B 'GÆTTER' sig til fire fulde RGB pixels!! Og det giver endnu større rissiko for fejl. (edit: ved godt man også kigger på nabo pixels, men man 'opfinder' stadig info, deraf moiree effekter)

Hvis man skal bygge pixel af mange mindre vil fejlene blive mindre. Jo mere binning jo bedre faktisk.

Her blander du litt, subpikselbinning og reduksjon av pikselantall er ikke det samme.

 

Binning gjøres i hardware før dataene lagres. Om det gjøres analogt eller man bare regner sammen de digitale verdiene rett etter AD-omforming vet jeg ikke. Jeg vil tippe det varierer fra produsent til produsent. Men uansett så vil det si at hver sammenslåtte gruppe av fotodiode fremdeles bare representerer en fargekanal. Omregning til RGB-verdier (uansett hvilket antall piksler du velger for den endelige bildefilen) gjøres i software etter at målingene er avlest og konvertert til digitale verdier.

 

Hvis man velger å slå en RGGB-gruppe på fire piksler sammen til en RGB-piksel så gjøres det i software, og er i utgangspunktet ikke det samme som faktisk binning (selv om det kan gjøre mye av samme jobben).

 

En variant for å gjøre subpikselbinning lettere er jo denne fra Fujifilm. Artikkelen illustrerer også noe av problemet med binning på vanlige Bayersensorer.

Lenke til kommentar
Beklager om dette blir en avsporing, men det kunne vært interessant med spesialutgaver av kameraer der fargefiltrene er fullstendig fjernet. Det vil bety sort/hvitt bilder og mye bedre lyssensitivitet/ISO.

 

Et kompromiss er Kodaks sensorteknologi med 50% sensorer uten filtre + 50% med fargefiltre.

Jeg vet ikke om jeg vil si mye bedre. Avhengig av lysforhold kan du regne med at mellom halvparten og 2/3 av lyset filtreres vekk. Så du kan vinne litt over ett trinn på å fjerne bayerfilteret.
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...