Gå til innhold

Automatisk hdr kamera?


Anbefalte innlegg

Finnes det? Har sittet å redigert en del bilder. Og det som oftest er "feilen" er at bildene har mørke og lyse partier. Hvor mange av detaljene forsvinner i disse partiene. Dette er det jo mulig å kompensere litt for i ettertid. Eller bruke HDR funksjonen i kamera. Som er et eget program, sånn som i D7000. Men litt tregt.

I video verdenen finnes det kameraer med 3 bildebrikker. En for hver farge RGB.

Tanken var da om disse bildebrikkene i stedet kunne vært brukt i et foto apparat, hvor hver enkelt brikke hadde ulike innstillinger, for så å bake sammen dataene til et bilde, automatisk der og da.

Hvor det da også kunne gått an å justere nivået på hver enkelt brikke uavhengig av hverandre, som du selv ønsket det. Så bildene blir mere lik slik øyet ser.

Hadde dette gått an å la seg gjøre? Har kamera produsentene noe slikt i tankene? Eller om det hadde latt seg gjøre å løse via elektronikken i kameraet?

Bare en tanke jeg hadde :).

Lenke til kommentar
Videoannonse
Annonse

På mitt kamera så kan jeg eksponere bildet til det blir omentrent helt sort og fremdeles hente fram et brukbart bilde så dynamikken er ekstremt mye bedre enn det en skjerm eller papir kan vise. Så det er lite å hente på å gjøre kameraet bedre når vi ikke kan utnytte mer enn en brøkdel av det vi allerede har.

 

Man kan bruke forskjellige teknikker for å komprimere dynamikken men fytterakkern, det er ikke mange tilfeller det kan gjøres fornuftig.

 

Hvis du bruker rawfiler så har du dynamikk så det holder til det aller meste fra moderne kameraer.

Lenke til kommentar

I video verdenen finnes det kameraer med 3 bildebrikker. En for hver farge RGB.

Tanken var da om disse bildebrikkene i stedet kunne vært brukt i et foto apparat, hvor hver enkelt brikke hadde ulike innstillinger, for så å bake sammen dataene til et bilde, automatisk der og da.

Videokameraer med tre sensorer ble brukt til en for hver farge. Du tenker å splitte i tre bilder som kan eksponeres forskjellig på tre sensorer? Det ville med mFT, APS-C og FF-sensorer være ekstremt plasskrevende, dyrt og kreve stor nøyaktighet. Vet heller ikke om noe system for å splitte i tre, men mulig to halvgjenomskinnelige speil kunne vært benyttet.

 

Splitte i to er åpenbart mulig og enklere og designmessig gjennomførbart med et halvgjenomskinnelig speil lignende det Sony bruker, men fordelingen av lys burde nok være "skjevere" for å få et større forskjeller i mengden lys som nådde sensorene.

 

Et noen skulle lage noe slikt kan jeg ikke tenke meg, mye mikk for å få det justert helt riktig og en dobling av sensorkostnadene.

 

Det har imidlertid vært laget flere løsninger som prøver å utvide DR med en sensor. Noen av Fujis SuperCCD-brikker hadde for eksempel forskjellig størrelse på annenhver piksel både i kompaktkameraer og i sine speilreflekser. To og to piksler ble behandlet som ett punkt og merget sammen til et bilde med høyere DR. Fujis EXR-sensorer og EXR-prosessor gjør noe lignenede. Eksakt hvordan dette er implementert er jeg ikke sikker på, men jeg tror Fuji kan justere eksponeringen på halvparten av pikslene slik at et bilde enten får full oppøsning eller halv oppløsning med forbedret DR.

 

Forbedre DR er uansett noe det jobbes med, men spesilt de litt større senorene har allerede så bra DR at mye kan gjøres med RAW og et bildebehandlingsprogram. Å mappe en fryktelig stor DR til en JPG med 8 bits pr kanal automatisk er forøvrig ikke helt enkelt så du må nok regne med å bruke etterbehandling og RAW for å få optimalt resultat en stund til.

Endret av seriksen
Lenke til kommentar

Ja, kamera produsentene vet vel hva de driver med :). Tanken bare slo meg da D7000 bruker 3 bilder for hdr fotografering og video kameraet mitt har 3 brikker. Disse sitter vel da på et prisme, så de er nøyaktig i forhold til hverandre?

Men resultatet D7000 gir er jo ikke så galt. Og med litt redigering så faller det meste på plass.

Men en enda bedre/raskere hdr funksjon kunne vært noe.

Lenke til kommentar

Også i EOS 5DIII er det automatisk HDR, som en funksjon man kan aktivere. Den tar da automatisk flere forskjellige eksponeringer, matcher plassering, og lagrer både et HDR og hvert bilde som egne filer.

Endret av xRun
Lenke til kommentar

Ja, kamera produsentene vet vel hva de driver med :). Tanken bare slo meg da D7000 bruker 3 bilder for hdr fotografering og video kameraet mitt har 3 brikker. Disse sitter vel da på et prisme, så de er nøyaktig i forhold til hverandre?

Men resultatet D7000 gir er jo ikke så galt. Og med litt redigering så faller det meste på plass.

Men en enda bedre/raskere hdr funksjon kunne vært noe.

Hva er bedre? Det som er bedre for noen er ulidelig grusomt for andre. Det finnes ingen universell måte å komprimere dynamikken på som gir et naturlig resultat på alle bilder.

 

Men ideen din vil fungere fint, det er bare det at bakdelene er ganske mange. Kameraet blir større, tyngre og dyrere. Strømforbruket går opp, datamangdene blir større og det er liten behov for den ekstra dynamikken siden vi allerede har mer enn vi kan bruke til noe fornuftig.

 

Skjermen min er 8 bit og kameraet er 14 bit, så det er allerede 64 ganger større spenn i bildet som kameraet tar enn det skjermen min kan vise.

Lenke til kommentar

Ja, kamera produsentene vet vel hva de driver med :). Tanken bare slo meg da D7000 bruker 3 bilder for hdr fotografering og video kameraet mitt har 3 brikker. Disse sitter vel da på et prisme, så de er nøyaktig i forhold til hverandre?

Videokamera bruker prisme for å splitte, men oppløsningen på video er så mye lavere at det ikke er like høye krav til perfekt plassering. Videokameraet splitter dessuten i tre farger mens for et HDR-bilde ønsker man en splitting der alle farger går til alle sensorer, men med forskjellig intensitet. Det er klart at å ta to eller tre bilder samtidig i stedet for rett etter hverandre er en fordel for å sikre at kameraet og/eller motivet ikke beveger seg mellom eksponeringene, men tviler som sagt på at flere sensorer er en god løsning.

Endret av seriksen
Lenke til kommentar

Hva er bedre? Jo alt kan gjøres bedre. Øyet mitt ser på en helt annen måte enn mitt D7000. Hadde D7000 kunnet se på denne måten hadde jeg vært super fornøyd.

Da hadde jeg sluppet å redigere noe som helst.

Det nærmeste jeg kommer mitt syn er via hdr. Hadde det vært mulig med ett klikk, så hadde jeg vært kjempe fornøyd. Da slipper jeg å kaste bort mye tid på etter behandling. :)

Lenke til kommentar

Det enkleste for deg ville vært å kjøpe deg et analogt filmkamera og bruke sorthvitt film. Da måler du lysverdien i skyggene, stopper ned 2 stop og måler høylysene. Er det mer enn 4 stopp mellom skygge og høylys, brukere du kortere fremkallingstid. Er det mindre enn 4 stopp bruker du lengre fremkallingstid. Sjekk ut "The Zone System". Da bruker du ikke lang tid på etterbehandling, trololo. Hvis du forresten ser farger sånn som de fremkommer i HDR programmer, ville jeg vurdert en tur til optiker.

  • Liker 3
Lenke til kommentar
  • 2 uker senere...
  • 1 måned senere...

Ta en titt på Sigma DP Merill Fotoapparater og bilder som har blitt tatt med disse...muligens det kan være noe for deg... :)

 

Ja det så artig ut det. Men virket litt vel tregt. Kunne vert moro å prøvd det.

  • Liker 1
Lenke til kommentar
  • 3 uker senere...

Første bud for HDR bør være å velge råformat og undereksponere litt. Det utvider dynamikken kraftig sammenlignet med jpeg. Fra ca 8 til 14 blendertrinn for D7000. Skal du ha mer enn det bør du ta flere råformatbilder og sy de sammen etterpå. En dårligere men enklere variant er å velge HDR i kameramenyen som gir ferdig HDR-prosessert jpeg ut fra kameraet.

 

Ellers så har jo fujifilm hatt HDR-kameraer tidligere med såkalt super-SSD SR og SRII. Håper vi får se mer av det i framtida.

Lenke til kommentar

Nikon sine DSLR er jo allerede "HDR" i forhold til Canon sine :-) (jeg er Canon-bruker selv).

 

0. Det er uansett viktig å forstå begrensninger i utstyr, og hvordan omsette scener til bilder som ser "bra" ut, "realistisk", eller hva enn som er målet med ditt fotografi.

 

Det er iallefall to "problem" som er relevant:

 

1. Hvordan fange mest mulig dynamikk (på en presis måte). Exposure bracketing er et opplagt valg hvis du har stativ og en statisk scene. Stadige forbedringer i bildesensor, optikk osv gir oss også stadig mer dynamikk å boltre oss i.

 

2. Hvordan presentere et bilde med mye dynamikk på media som ikke har så mye dynamikk (papir, skjerm,...). Løsningen for HDR-bilder kalles "tonemapping", mens løsningen for tradisjonell fotografi kalles "dodge & burn".

 

Jeg tror ikke at separate sensorer er en praktisk løsning for økt dynamikk, men tror at mange triks kan gjøres med en enkelt sensor, spesielt dersom man er villig til å ofre romlig oppløsning og/eller kvalitet ved høy ISO.

 

-k

Lenke til kommentar

Hva er bedre? Jo alt kan gjøres bedre. Øyet mitt ser på en helt annen måte enn mitt D7000. Hadde D7000 kunnet se på denne måten hadde jeg vært super fornøyd.

Da hadde jeg sluppet å redigere noe som helst.

Det nærmeste jeg kommer mitt syn er via hdr. Hadde det vært mulig med ett klikk, så hadde jeg vært kjempe fornøyd. Da slipper jeg å kaste bort mye tid på etter behandling. :)

Jeg tror at det er en grunnleggende begrensning som gjør at statiske foto aldri kan bli "som å være der": når du står og skuer utover Grand Canyon så flytter du skarpsynet fram og tilbake mellom ulike deler av scenen. Mens du gjør dette, så adapterer synet ditt seg i noen grad til lokal brightness, hvitbalanse, fokus, etc. Men likevel så vil sidesynet samtidig relatere det lokale til det globale.

 

Jeg tror ikke at noen statisk manipulasjon av et 2D bilde kan gjenskape den samme følelsen - da måtte man ha perfekt øye-tracking og dynamisk manipulasjon av bildet. Men tonemapping kan likevel være en "interessant" eller "god nok" tilnærming til idealet. I ferien så hadde jeg god anledning til å se på mennesker og objekter i kraftig motlys. Det interessante er at vi (mennesker) nesten bestandig er i stand til å oppfatte _noe_ detaljer i et menneskes skyggelagte ansikt selv i konkuranse med kraftig sollys. Dette er situasjoner hvor fotografi vanligvis gir oss silhouetter. Dette taler for tonemapping/opphenting av skygger. Samtidig: når jeg fokuserer på himmelen bak personen så framstår personen ofte som en blurry svart masse. Dette taler for å ikke utjevne dynamikken. Så hvilken av disse to ytterpunktene skal man basere seg på?

 

Forøvrig så anser jeg alle kamera-brukere som brukere av tonemapping (enten de innrømmer/vet det eller ei). Tonemapping er en generalisering av hvit-punkt/svart-punkt, curves/levels etc som brukes av in-camera JPEG motorer, Photoshop-brukere etc. Å hevde (som noen gjør) at enkel, global hvitpunkt/svartpunkt/s-kurver representerer "virkeligheten" mens tonemapping (som kjent fra "HDR-programmer") er "fake" er etter min mening merkelig. Begge representerer manipulasjon av data som har til hensikt å gjøre bildene "bedre". Hva som faktisk er bedre avhenger selvsagt av motivet, algoritmen, manuell skruing og fotografens intensjoner.

 

-k

Endret av knutinh
  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...