Gå til innhold

Anbefalte innlegg

Videoannonse
Annonse

Nå tar megapixelhysteriet helt av! ~1% ekstra er verd en hel artikkel!

 

:p hehe, men festlig finurlig er det i hvert fall.

 

Megapixler - gigapixler - gratispixler. Det blir stadig vanskeligere å holde styr på pixlene. :p

 

Av ren nysgjerrighet: Hvor kommer de ekstra pixlene fra? Er det pixler på kanten av sensoren som klippes bort under prosessering til jpg?

Lenke til kommentar
Av ren nysgjerrighet: Hvor kommer de ekstra pixlene fra? Er det pixler på kanten av sensoren som klippes bort under prosessering til jpg?

 

Dette lurer jeg også på!

 

Selve programmet kan jo ikke tilføre pixler som ikke finnes fra før, så de må vel ligge der. Kan vi altså si at andre bilderedigeringsprogram ikke er helt optimale siden de kutter bort deler av bildet?

Lenke til kommentar
Av ren nysgjerrighet: Hvor kommer de ekstra pixlene fra? Er det pixler på kanten av sensoren som klippes bort under prosessering til jpg?

 

Dette lurer jeg også på!

 

Selve programmet kan jo ikke tilføre pixler som ikke finnes fra før, så de må vel ligge der. Kan vi altså si at andre bilderedigeringsprogram ikke er helt optimale siden de kutter bort deler av bildet?

 

Jeg tipper andre bilderedigeringsprogrammer følger retningslinjer fra Canon og Nikon om å kutte ut noen få piksler på kantene. Mulig grunn for det kan være alt fra ekstremt vignetting til dø piksler, samt støv og lubricant som er mest synlig i ytterkantene.

 

Det som er moro med dette her at man kan pakke ut mer data av gamle rå filer, som beviser nok enn gang verdien med rå filer :)

Lenke til kommentar

Det innes en liten programsnutt som gjør dette for DNG filer også for andre rawkonvertere. Så konverterer du fila til DNG, for så å kjøre de igjennom denne snutten, oppnår du det samme med din vanlige konverter (om den støtter DNG da selvfølgelig).

 

http://www.luminous-landscape.com/contents...ver-Edges.shtml

 

Mye styr for lite kanskje, men i noen tilfeller kan det gi deg de pixlene du trenger, hvis du har komponert for stramt og f.eks kappa en fingertupp.

 

Forresten forteller artikkelen også hvorfor det beskjæres. I følge den har ikke dette med vignetering osv. å gjøre.

Lenke til kommentar
En tidel er vell ikke det samme som 1% :roll: ...

I dette tilfellet er 1% litt i overkant av en tidels megapixel, så det er ikke helt på jordet, bare litt folkelig avrundet.

 

Selve programmet kan jo ikke tilføre pixler som ikke finnes fra før, så de må vel ligge der. Kan vi altså si at andre bilderedigeringsprogram ikke er helt optimale siden de kutter bort deler av bildet?

Pixlene ligger nok der på sensoren og i råfila. Det er nok råkonverterne på PC og i kameraet som beskjærer bort kantene.

 

Jeg tipper andre bilderedigeringsprogrammer følger retningslinjer fra Canon og Nikon om å kutte ut noen få piksler på kantene. Mulig grunn for det kan være alt fra ekstremt vignetting til dø piksler, samt støv og lubricant som er mest synlig i ytterkantene.

Jeg tror det har mer å gjøre med at de matematiske algoritmene (bayerfiltrering, oppskarping, vignetteringskompensasjon med mer) er beregnet på "uendelige" flater. Algoritmene feiler altså ved kantene på grunn av mangel på data utenfor kanten. Dette kan løses på to måter:

1. Klippe bort x antall pixler på hver kant.

2. Lage spesielt tilpassede algoritmer for kantene.

 

De fleste kameraer og PC-baserte råkonvertere bruker sannsynligvis metode 1 fordi det er klart enklest for programmererne. UFraw benytter tydeligvis metode 2.

 

Det som er moro med dette her at man kan pakke ut mer data av gamle rå filer, som beviser nok enn gang verdien med rå filer :)

Hvis man kuttet ørlite av toppen av hodet eller andre viktige elementer i bildet kan det altså hende man klarer å hente frem noen få ekstra pixler. 14 pixler mer på hver sidekant og 6 pixler mer i toppen og bunnen med D700.

Lenke til kommentar
Jeg tipper andre bilderedigeringsprogrammer følger retningslinjer fra Canon og Nikon om å kutte ut noen få piksler på kantene. Mulig grunn for det kan være alt fra ekstremt vignetting til dø piksler, samt støv og lubricant som er mest synlig i ytterkantene.

Jeg tror det har mer å gjøre med at de matematiske algoritmene (bayerfiltrering, oppskarping, vignetteringskompensasjon med mer) er beregnet på "uendelige" flater. Algoritmene feiler altså ved kantene på grunn av mangel på data utenfor kanten. Dette kan løses på to måter:

1. Klippe bort x antall pixler på hver kant.

2. Lage spesielt tilpassede algoritmer for kantene.

 

De fleste kameraer og PC-baserte råkonvertere bruker sannsynligvis metode 1 fordi det er klart enklest for programmererne. UFraw benytter tydeligvis metode 2.

 

Er nok litt uenig med deg der. Tror det handler kun om retningslinjer og ønske om å opprettholde riktig ratio samt droppe ut det ekstreme.

 

Som utvikler klarer jeg ikke helt å se for meg at noen vil produserer en større sensor bare for å gjøre livet til folk hos Adobe enklere :)

Endret av GCardinal
Lenke til kommentar

Større og større, det er bare ~1% av sensorarealet som står ubrukt.

 

En sensor koster faktisk ikke all verden i forhold til resten av kameraet. (Selv om det kan se sånn ut fra prisinga på crop vs fullformat) Dersom ~1% ekstra areal betyr sparte utgifter til utviklere av algoritmer så kan det godt hende det det både er mer økonomisk og reduserer utviklingstiden littegrann.

 

PS. Den desidert mest brukte råkonverteren produseres nok ikke av Adobe, men av produsentene selv (den som sitter i kameraets firmware).

Lenke til kommentar
Større og større, det er bare ~1% av sensorarealet som står ubrukt.

 

En sensor koster faktisk ikke all verden i forhold til resten av kameraet. (Selv om det kan se sånn ut fra prisinga på crop vs fullformat) Dersom ~1% ekstra areal betyr sparte utgifter til utviklere av algoritmer så kan det godt hende det det både er mer økonomisk og reduserer utviklingstiden littegrann.

 

PS. Den desidert mest brukte råkonverteren produseres nok ikke av Adobe, men av produsentene selv (den som sitter i kameraets firmware).

 

Jeg tipper at RAW > JPG konverteringsalgoritmer endres ikke med hvert nytt kamera som lanseres på markedet. Kan godt tenke meg situasjon der man måtte hive på ekstra piksler for å få Nikon D100 lansert raskest mulig, men når man kommer til D5000 eller D3x tipper jeg at algoritmen sitter ganske godt.

 

Samtidig er det mulig at den type algoritmer som bruker de ekstra piksler (dersom det stemmer) er kjappere og tenger mindre prosessor kraft - da kan jeg være enig i at det kan lønne seg med et par ekstra piksler for å øke FPS.

 

PS: Adobe var en ironisk referanse, synd å måtte forklare det.

Endret av GCardinal
Lenke til kommentar

Stemmer med min erfaring med UFRAW. Rawfila fra min Oly E-520 i ufraw er 3720x2800, mens jpg fra kameraet er 3648x2736. rawfila er mao 10416000 pixler, mens jpg fila er 9980928 pixler. En "gevinst" på 435072 pixler (4% gevinst i forhold til jpg-fila), men neppe nok til at jeg merker det i det hele tatt.

Lenke til kommentar

Ikke noe nytt i dette. Jeg har mange ganger nevnt i forumet (som en kuriositet, for det er jo alt det er) at Bibble oppfører seg på samme måte. Bibble er forøvrig også veldig kjapp, så det er ingen sammenheng der.

 

Bla. på side 498 i chattetråden forklarer jeg litt overordnet hvorfor det er sånn: https://www.diskusjon.no/index.php?session=...&p=11704907

 

Utrolig at ikke redaksjonen plukket opp denne fantastiske nyheten alt da... :fun:

Endret av Anew
Lenke til kommentar
×
×
  • Opprett ny...