Gå til innhold

Teknisk: en tanke om et litt annerledes kamera.


Anbefalte innlegg

Det virker som at lengre lukkertider genererer mer data enn kortere. Mitt Canon 20D kan vanligvis ta 5 bilder i sekundet, opptil 6 RAW på rad. Men når lukkertiden øker, begrenses det fort hvor raskt den vil ta neste bilde etter at forrige ble ferdig eksponert (altså, skytetakten avgjøres ikke bare av eksponeringstiden i seg selv). Og når jeg tar bilder med 30 sek. lukkerhastighet står kameraet lenge, opptil 15 sekunder, og etterbehandler dataene ("busy").

 

Så det kan virke som at dagens sensorer leverer en flytende datastrøm til en buffer gjennom hele eksponeringen, som deretter "summeres opp" til det ferdige bildet.

 

I så fall kan man tenke seg en vri, hvis man har lagringskapasitet nok: istedenfor å summere opp dataene i kameraet, lagres alt hele strømmen separat, og med en "timestamp" på alt av data. Fila fra denne strømmen kan så behandles i et program i en PC: man får feks et utsnitt av 30 sek. reell eksponering hvor man selv i etterkant kan velge hvor stort intervall av eksponeringen man vil hente fra (virtuell "eksponering"), og fra hvor langt uti løpet av den reelle eksponeringen. Feks 1/60 sek. "eksponeringstid", 7.8 sek uti datastrømmen. Dette kan gjøres så enkelt som med to slidere, eller man kan la programmet avgjøre automatisk hvor langt dataintervall som utgjør en gunstig virtuell eksponeringstid og bare ha en enkelt slider for å velge tidspunkt i datastrømmen. Faktisk, ISO kan også velges og varieres i etterkant (virtuell "ISO"), manuelt eller automatisk, siden det blir snakk om en matematisk, korrigerende boost av lysmengden man fikk inn i løpet av den virtuelle eksponeringstiden.

 

Knotete forklart, men dere skjønner sikkert.

 

Det at man får med seg alt som skjer i løpet av den reelle eksponeringen, med enormt små trinn, gir en del muligheter for å fange ellers vanskelige motiver under vanskelige forhold. Raske hendelser kan mye lettere fryses i akkurat det avgjørende øyeblikket. Man kan finne den optimale kombinasjonen av "ISO" og "eksponeringstid", tilpasset hva som faktisk skjedde da man tok bildet. Man kan også lete opp steder i datastrømmen hvor motivet eller kameraet bevegde seg minimalt, og dermed tillate seg lenger eksponering (og da lavere "ISO" og mindre støy) enn ellers. Og når innstillinger som "ISO" og "eksponeringstid" kan gjøres automatisk av programmet, blir det ikke særlig mye ekstraarbeid heller utover å velge riktig tidspunkt.

 

Godt mulig at markedet for dette hadde vært begrenset, og det vil kreve en del av både lagringsplass og databehandlingskraft. Men det hadde vel i alle fall vært litt stilig? :)

Endret av Onkel
Lenke til kommentar
Videoannonse
Annonse

Jeg vet ikke når hastigheten synker, men når du tenker over det, så er det innlysende at under en viss hastighet, så må bps synke. 5bps er 1/5s per bilde i eksponering. I tillegg skal speilet opp og ned osv.

 

Men det er vel tegn på at det du tenker på her vil komme etterhvert. Casio sin super-zoom (EX-F1) med video-muligeter og Nikon D90 viser veien.

 

Tom

Lenke til kommentar
Jeg vet ikke når hastigheten synker, men når du tenker over det, så er det innlysende at under en viss hastighet, så må bps synke. 5bps er 1/5s per bilde i eksponering. I tillegg skal speilet opp og ned osv.

 

Hmmm, tror vi snakker om det samme, men det var det jeg mente: hastigheten ser ut til å synke MER enn dette skulle tilsi. Har du 1/1000 s eksponeringstid får du 5 fps. Det virker altså som at grunnleggende behandlingstid for et bilde er ca 0,2 sek. Velger du 1/3 s eksponeringstid skulle du altså kunne ta ca to bilder i sekundet. Men jeg tror ikke jeg kan det; tiden IMELLOM hver eksponering virker som den blir lengre og noen ganger synker også antallet RAW-filer jeg kan ta på rad.

Lenke til kommentar

Kul idé, men jeg tror ikke de har sensorer som kan fungere sånn enda.

 

Når hver celle i sensoren leses av, så skjer det ved at cella tømmes for data (spenning). Siden signal/støyforholdet er avhengig av bl.a. signalstyrken, så vil ikke hyppige avlesninger av svake signaler kunne adderes for å gi den samme effekten som avlesning av det akkumulerte signalet én gang på slutten.

 

Trur eg. Det er vel folk rundt her som er vesentlig sterkere på lineære sensorer enn meg og som eventuelt kan korrigere.

 

 

 

Forresten, jeg kjenner ikke kameraet ditt, men har det en støyfjerningsmekanisme som ved lengre lukkertider tar en etter-eksponering for å kunne subtrahere ut støy?

Lenke til kommentar
Forresten, jeg kjenner ikke kameraet ditt, men har det en støyfjerningsmekanisme som ved lengre lukkertider tar en etter-eksponering for å kunne subtrahere ut støy?

Bingo! Dette er trolig årsaken til den effekten som trådstarter ser.

 

Mitt kamera kan (om man vil) ta en ettereksponering med lukkeren lukket, for å gjøre støysubtraksjon. Så hvis man tar et bilde med to sekunder lukkertid, så blir først sensoren eksponert i to sekunder, deretter tas det et "svart" bilde på to sekunder. Så hele prosessen tar fire sekunder, før man kan ta neste bilde.

Lenke til kommentar

Det er helt riktig som du sier, at dataene lagres i en hurtigbuffer, og det er nettopp på grunn av dette at de fleste kamera har en maks mengde bilder du kan ta i serie. Grunnen til dette har mye med hastigheten på minnekortet i forhold til hastighet på datastrøm fra sensor.

 

Ideen din er god, men ikke praktisk gjennomførbart med den teknologi som er på markedet i dag, nettopp pga hastighet på lagringsmedie. Dette kommer litt frem i videokameraer også. Ta f.eks et kamera med full HD og minnekort som lagringsenhet. Du kan filme i full HD på raskeste minnekort, men om du går ned til f.eks 15 eller til og med 10 MB/S kort, vil du måtte sette ned oppløsningen for å sikre en jevn dataflyt til kortet. Og her snakker vi oppløsning på kun 1920x1080 pixler. Altså, om vi skal implentere en lignende løsning på et stillbildekamera, ville vi måtte godta mindre oppløsning eller lage raskere minnekort.

 

...tror jeg :p

Lenke til kommentar

Nei det er ikke riktig tror jeg, for de fleste dSLR ved lange eksponeringer foretar "dark-frame-substraction" hvor kameraet gjør en eksponering like lang som den du nettopp gjorde, med lukker igjen, noe som gir ett svart bilde med ett gitt støymønster, som så trekkes fra bildet du tok, slik at støy som er der uansett motiv kartlegges og trekkes fra, tipper det er ventetiden.

 

Og du kan få kameraet ditt til å virke som du sier i dag, ta mange bilder på kort lukkertid isteden for den lange, legg dem over hverandre i layers i photoshop og blend dem med multiply så øker eksponeringen. Tror dette er en vanlig fremgangsmåte ved astro-foto.

Lenke til kommentar

Hehe, la oss tenke litt høyt. Noen måter å komme rundt det på:

- en kjempestor superhurtigbuffer i kameraet (eller flere parallelle som tar seg av små deler av bildet), da kan jo minnekortet være så tregt det vil når man så lagrer fila til det.

- sette ned oppløsningen.

- stykke opp datastrømmen i timestampede "pakker", som er summert opp underveis, feks at strømmen er satt sammen av stykker på 1/2000 sek. hver.

 

La oss tenke oss en amputert prototype: 12 bits fargedybde, monokromatisk, HD-ready (1280 x 720), pakker på 2000 bilder i sekundet... 12 x 1280 x 720 x 2000 = ca 21 Gbps. Med en rådatafil for en eksponering på ett minutt: ca 170 GB om jeg ikke tar mye feil.

 

Kameraet Red One har en ganske drøy datastrøm, tror det lager filmfiler på rundt 350 MB i minuttet, det tror jeg er det råeste tilgjengelige i dag. En småkjip førsteutgave av dette konseptkameraet vil altså kreve rundt 500 ganger så mye.

 

Hvordan er det med moores lov? Vil patentrettighetene mine utløpe før dette blir teknisk mulig? :)

 

For å si det med Jack Handey: Oh, I see now.

Endret av Onkel
Lenke til kommentar

Hehe, en shitload av store, parallelle rambrikker pluss en middels stor harddisk på slep. Kapasitet: to bilder. :)

 

Bortsett fra sensorproblemene kaian snakker om, høres jo ikke dette HELT urealistisk ut hvis man deler inn sensoren i flere parallelle områder for arbeid og lagring? How about it, science? :)

Endret av Onkel
Lenke til kommentar
Bortsett fra sensorproblemene kaian snakker om, høres jo ikke dette HELT urealistisk ut hvis man deler inn sensoren i flere parallelle områder for arbeid og lagring? How about it, science? :)

Hva med å mekke litt sjøl? Det er mye å starte med på sparkfun, og de har ganske bra utvalg på elfa på Sandaker også :o)

 

Tror faktisk de nyere FF-sensorene avleses av flere paralelle prosesser allerede, uten at jeg kan si det sikkert. Ellers har jo holografisk minne vært i kjømda en stund, 10TB i prismet kanskje?? :o)

Lenke til kommentar

Meh... Rart med det, jeg vil heller at noen andre skal gjøre det, og gi meg resultatet. :)

 

Men de sensorproblemene høres ut som en showstopper. Man er avhengig av en rimelig kontinuerlig strøm, avlesningene av lysstyrke i hver sensorpixel kan ikke være alt for oppstykket...

 

Hvordan funker egentlig liveview i forhold til dette?

Lenke til kommentar
Liveview sender signalet direkte til en skjerm, og behøver dermed ikke lagres noe sted. Og i nyere kameraer (løsningen Sony introduserte :D) er det en egen sensor som tar seg av dette. ;)

 

Men hvis tingen er at hvis liveview uansett ikke gjøres på grunnlag av en jevn strøm (men at avlesningene avbrytes med jevne mellomrom, feks 15 eller 30 ganger i sekundet, konstrueres til en frame i liveview'en og presenteres på skjermen) så må jo det samme kunne gjøres i sensoren i dette konseptkameraet, men bare kjappere som i 2000 ganger i sekundet? Eller er problemet i det kaian sier, at det tar litt tid å slette spenningen fra cellen, sånn at man ikke oppnår den hastigheten eller at det blir for stor avstand mellom hver avlesning og man får bevegelser som ser hakkete ut istedenfor en jevn og pen utgnidning?

Lenke til kommentar

er ikke sikker på om det er slik det egentlig fungerer i praksis..

på de kameraer som bruker samme sensor til liveview og faktisk registrering av bildet, avbrytes uansett feed til liveview idet bildet taes. man får et blaff på skjermen idet man tar bildet. dette unngår man på nyere kameraer med to sensorer, men da er det også to adskilte prosesser...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...