tommyb Skrevet 23. september 2008 Del Skrevet 23. september 2008 (endret) 24 MP-bildet vil ha høyere sensoroppløsning, men vil det vise mer detaljer? Det vil så klart ha mer finkornet støy (duh), men signal-støy-forholdet vil mest sannsynlig være dårligere, så du vil ha mer støy. Mer støy... Mye mer støy... OG mer detaljer. Det ene utelukker ikke det andre. Igjen, hvis vi viser til 1 pixel vs 4 pixel sensoren, vil den ene ha 1 pixel til å vise detaljer, mens den andre har fire til å vise detaljer. Kanskje vil detaljene nesten drukne i støy, men inntil de drukner i støy er da mer detaljer fortsatt mer detaljer. Uff... Var en grunn til at jeg gjemte offtopic-delen av innlegget mitt i spoilertag'en. Kanskje vi skulle forflyttet oss over i en ny tråd? Jeg tilføres merkunnskap og kanskje dere tilføres litt andre perspektiver... Endret 23. september 2008 av tommyb Lenke til kommentar
Sutekh Skrevet 23. september 2008 Del Skrevet 23. september 2008 Nei, nå tuller du... Har du en sensor med én pixel, uansett hvor stor den er, og tar bilde av blå himmel pluss grønt gress, får du én pixel med blågrønt. Den er verken i nærheten av å ha rett farge for himmel eller gress. Har du fire pixler, vil du få to blå pixler for himmelen, og to grønne pixler for gresset. Dette vil være en mye mer nøyaktig framstilling av både farger og former. Altså en mye bedre billedkvalitet, hvor man faktisk kan med litt fantasi klare å gjette seg til hva man ser. Nei, du vil få enten en monokrom piksel, eller to grønne, en rød og en blå piksel. Uansett er bildet du får fullstendig ubrukelig, men den ene pikselen vil måle det totale luminansnivået med større grad av nøyaktighet. Jeg prøver ikke å bli tatt seriøs som fotograf. Jeg ønsker å bli tatt seriøs som FORBRUKER. Det spiller faktisk ikke noen rolle som helst om jeg er en god eller dårlig fotograf. Det er langt flere av "meg" enn av "deg" i kundemassen til Panasonic.Problemet er at du prøver å argumentere ganske tung (digital) fototeori fra en forbrukers ståsted. Da må du også akseptere at noen arresterer deg på det når du helt klart ikke har forstått alle aspektene ved problemstillingen. Det er veldig nyttig å ha kjennskap til fysikkens lover, men det er enda nyttigere å forstå at de lovene bare er tilnærminger og når de bryter sammen og ikke lenger er gyldige. La meg få forklare hvorfor jeg får bedre bilder med ultrazoomen enn med DSLR'en.(...) Som sagt, jeg tror definitivt du vil være i stand til å få bedre bilder, selv med et såpass... sært speilrefleks som E330, hvis du tar deg tiden til å forstå det. Bildestabilisering er uansett av svært begrenset nytte når du tar bilder av hester i fart, siden det viktigste er kort lukkertid. Det er mange muligheter med et speilreflekskamera for å gjøre det enklere å ta den typen bilder som er ganske enkle å lære hvis du setter deg inn i dem. Forskjellige muligheter: -Lukkerprioritetsmodus, gjerne med auto-iso hvis det er tilgjengelig. Sett lukkertiden på det du ønsker den skal være (jeg ville sagt rundt 1/200 sek eller kortere, avhengig av brennvidde), og kameraet velger blenderåpning og gjerne ISO for deg slik at du får rett eksponering. -Blenderprioritet: bruk størst mulig blender og la kamerahuset stille lukkertid. Selv hadde jeg antagelig brukt det siste, eller muligens manuell modus. En av de fine tingene med dSLR er at du kan se resultatet med en gang, så det jeg veldig ofte gjør er at jeg tar et prøvebilde med blenderprioritetsmodus, ser om jeg liker eksponeringen og så skifter over til manuelt og stiller inn samme eksponering. Da slipper jeg at lysmålingen lar seg lure av forandringer i motivet. Så lenge lysforholdene ikke forandrer seg alt for mye har du plenty å gå på, og det bør ikke være noe problem å ha kameraet klart før du stiller deg opp for å ta bilde av hestene. Du har mye mer å vinne på å gå opp litt på ISO og få ned lukkertiden med en større bildebrikke enn det du får ut av bildestabiliseringen i et ultrazoom-/bridgekamera med en liten brikke. Lenke til kommentar
Sutekh Skrevet 23. september 2008 Del Skrevet 23. september 2008 Mer støy... Mye mer støy... OG mer detaljer. Det ene utelukker ikke det andre.Det er nok dessverre her du tar feil. For at du skal klare å få mer detaljer i det digitale bildet, så må også optikken være i stand til å tegne disse detaljene på fokusplanet. Og vi er nå på det punktet hvor digitale sensorer i stor grad har tilnærmet lik eller større oppløsningsevne enn optikken vi henger foran dem. På kompaktkameraer er nok den grensen passert for lengst. Lenke til kommentar
tommyb Skrevet 23. september 2008 Del Skrevet 23. september 2008 (endret) Takk for råd Nå mente jeg faktisk som jeg sa pixler og ikke photosites. Oppløsningen måles vel i billedpunkter og ikke sensorpunkter? Endret 23. september 2008 av tommyb Lenke til kommentar
Sutekh Skrevet 23. september 2008 Del Skrevet 23. september 2008 (endret) Nå mente jeg faktisk som jeg sa pixler og ikke photosites. Oppløsningen måles vel i billedpunkter og ikke sensorpunkter?"Oppløsning" måles som oftest i målepunkter per lengdeenhet, eller målepunkter per arealenhet. Å bruke ordet oppløsning om totalt antall målepunkter uten å relatere det til et romlig mål er en vederstyggelighet, og burde være grunnlag for rituell brenning på bål *kremt* Men nok om mine kjepphester: Normalt oppgis brutto og netto megapiksler. Brutto er antall fotodioder på sensoren. Noen av disse blir av forskjellige årsaker ikke direkte bidragsytende til selve bildet, for eksempel ved at de er tildekket og brukes til å kalibrere svartnivået, estimere termisk støy etc. Når man har trukket fra disse, ender man opp på netto megapiksler, som er antall RGB bildepunkter du får på det endelige bildet. Det er dog ikke slik som på skjermer at hver piksel i det endelige bildet er satt sammen av en rød, en grønn og en blå subpiksel på sensoren. Antall RGB bildepunkter i det endelige bildet er praktisk talt det samme som antall fotodioder på sensoren. Men hver fotodiode er monokrom og registrerer i utgangpunktet bare luminans. For å hente ut fargeinformasjon legger man på et RGBG-filter (Bayerfilter) foran sensoren, slik at hver fotodiode kun registrerer lys fra en del av spektrumet. Når man så skal finne RGB-verdien til en gitt piksel og konstruere det endelige bildet så tar man verdien for en farge fra den spesifikke fotodioden, og så henter man informasjon om de to andre fargene fra omkringliggende fotodioder med andre filterfarger. Litt fancy signalbehandling senere, og man sitter igjen med en tilnærmet verdi for farge og luminans på lyset som traff hver enkelt fotodiode. Unntaket for denne regelen er Foveon-sensoren, der hver fotosite er lagdelt, og hvert lag er semitransparent og absorberer kun ett område av frekvensspektrumet, mens resten passerer videre til laget under. Dette gir "ekte" RGB-sampling og har mange fordeler mtp. skarphet, moiré og (teoretisk) lysfølsomhet, men så langt har gjennomføringen vært så som så. Endret 23. september 2008 av Sutekh Lenke til kommentar
Anbefalte innlegg