Simen1 Skrevet 24. juni 2008 Del Skrevet 24. juni 2008 Jeg legger merke til at kameraer er oppgitt med brutto og netto antall megapixler. F.eks klarer noen å regne ut at 4000 * 3000 blir 12400000. Er det noen som kan forklare avvikene? Lenke til kommentar
Sutekh Skrevet 24. juni 2008 Del Skrevet 24. juni 2008 (endret) Meg bekjent: Førstnevnte er totalt antall fotodioder på sensoren, det andre er antall piksler bildefilen har etter demosaicing og interpolering. Endret 24. juni 2008 av Sutekh Lenke til kommentar
Simen1 Skrevet 24. juni 2008 Forfatter Del Skrevet 24. juni 2008 At en rad med pixler langs kantene "forsvinner" i bayer-algoritmen er forståelig, men nå interpoleres vel ikke filene med mindre man velger (vesentlig) lavere kvalitet. På full oppløsning skal det vel være nesten helt likt med antall fotosensorer. På en sensor med 3000*4000 fotosensorer så ligger 13996 av de langs kantene. Noe som vil si at en 12 megapixel sensor gir fra seg bildefiler med 2998 * 3998 = 11986004 pixler hvis bayeralgoritmen fjerner en rad pixler fra alle kanter av sensoren. I linken er tapet av pixler mellom brutto og netto mye større enn ~14 tusen. Det er hele 400 tusen. Lenke til kommentar
k-ryeng Skrevet 24. juni 2008 Del Skrevet 24. juni 2008 At en rad med pixler langs kantene "forsvinner" i bayer-algoritmen er forståelig, men nå interpoleres vel ikke filene med mindre man velger (vesentlig) lavere kvalitet. På full oppløsning skal det vel være nesten helt likt med antall fotosensorer. På en sensor med 3000*4000 fotosensorer så ligger 13996 av de langs kantene. Noe som vil si at en 12 megapixel sensor gir fra seg bildefiler med 2998 * 3998 = 11986004 pixler hvis bayeralgoritmen fjerner en rad pixler fra alle kanter av sensoren. Du skal nok ikke se bort fra at det er noen feilkorreksjonspixler langs kanten og at produsentene har lagt inn noen ekstra pixler slik at de kan shifte den aktive delen til det optiske senteret for å redusere presisjonskravet ved montering av sensoren. Lenke til kommentar
Sutekh Skrevet 24. juni 2008 Del Skrevet 24. juni 2008 At en rad med pixler langs kantene "forsvinner" i bayer-algoritmen er forståelig, men nå interpoleres vel ikke filene med mindre man velger (vesentlig) lavere kvalitet. På full oppløsning skal det vel være nesten helt likt med antall fotosensorer.Interpolering er en nødvendig del av demosaicing, og inngår i konverteringen av alle bilder tatt med bayersensor. Siden hver fotodiode bare registrerer en farge må softwaren interpolere med målinger fra omkringliggende fotodioder for å få per-piksel RGB-verdier. På en sensor med 3000*4000 fotosensorer så ligger 13996 av de langs kantene. Noe som vil si at en 12 megapixel sensor gir fra seg bildefiler med 2998 * 3998 = 11986004 pixler hvis bayeralgoritmen fjerner en rad pixler fra alle kanter av sensoren.Det er nok mer enn én rad med piksler som brukes for å gi verdier langs kanten. I tillegg er det ofte en del fotosensorer som er tildekt og ikke utsettes for lys i det hele tatt for å måle "svart" (eller sagt på en annen måte: gi et anslag av hva det termiske støynivået ligger på). Lenke til kommentar
Kristallo Skrevet 24. juni 2008 Del Skrevet 24. juni 2008 F.eks klarer noen å regne ut at 4000 * 3000 blir 12400000. Er det noen som kan forklare avvikene?I datablader til bildebrikker så står det ofte at pikslene i ytterkant har avvikende spesifikasjoner. Så vi kan regne med at det kan ha noe med produksjonen å gjøre i tillegg til det Sutekh nevner om måling av sortnivå, Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå