faaeri Skrevet 24. november 2005 Del Skrevet 24. november 2005 Hva sier du til aldri mer å måtte forholde deg til treg autofokus, fokus som bommer, små blenderåpninger som gir alt for lange lukkertider og andre irritasjonsmomenter innen fotografering? Les mer Lenke til kommentar
Gjest Slettet-fsaSP0zV Skrevet 24. november 2005 Del Skrevet 24. november 2005 Da jeg leste dette, måtte jeg sjekke kalenderen for å se om det var 01. april. Dersom dette faktisk er tilfelle, og kan bli tilgjengelig, er det jo ikke mindre enn fantastisk! Lenke til kommentar
Kjetil-H Skrevet 25. november 2005 Del Skrevet 25. november 2005 Da jeg leste dette, måtte jeg sjekke kalenderen for å se om det var 01. april. Dersom dette faktisk er tilfelle, og kan bli tilgjengelig, er det jo ikke mindre enn fantastisk! 5200185[/snapback] Det er nok tilfelle, men det trenger nok tid før det blir et brukbart alternativ. Prototypen bruker et 16MP digitalt bakstykke, men leverer billedfiler med kun 90000piksler. Siden den bruker ~180 fysiske piksler på å hente informasjon til hver piksel i billedfilen, vil man trenge et 360MP bakstykke for å kunne få en billedfil med 2MP. Toppmodellene fra PhaseOne nå til dags ligger på 40-50MP og koster like mye som en flott bil.. Men hvilke muligheter dette gir er jo et mye hyggeligere tema.. Mvh Kjetil Lenke til kommentar
Simen1 Skrevet 25. november 2005 Del Skrevet 25. november 2005 Spennende lesing. Det åpner i hvertfall for en teoretisk mulighet for fremtidige kameraer som kan fukusere etter at bildet er tatt. Men noe jeg har tenkt på en stund: Hadde det ikke gått an å knipse et vanlig bilde og kjøre det gjennom en fouriærtransformasjon for å fokusere bildet annerledes? Se for deg at du tar bilde av et lysende punkt som egentlig ville fyllt akkurat 1 pixel hvis det var i fokus og at resten av bildet er sort. Hvis man da fouriærtransformerer bildet så kan man bruke det ufokuserte bildet til å gjenopprette et bilde at lyspunktet. Hvis man kjører transformasjon på hele bildet så vil det opprinnelige bildet være byggemateriale for et bilde med et annet fokus. Programmet må så klart være matet med data om objektivet. Fouriær krever veldig mye datakraft siden det bruker hele bildet for å produsere hver eneste pixel, men det bør etter mine teorier være mulig. Er det noen av dere med innsikt i matematiske transformasjoner som tror dette lar seg gjøre? Lenke til kommentar
Goldfish Skrevet 27. november 2005 Del Skrevet 27. november 2005 (endret) Spennende lesing. Det åpner i hvertfall for en teoretisk mulighet for fremtidige kameraer som kan fukusere etter at bildet er tatt. Men noe jeg har tenkt på en stund: Hadde det ikke gått an å knipse et vanlig bilde og kjøre det gjennom en fouriærtransformasjon for å fokusere bildet annerledes? Se for deg at du tar bilde av et lysende punkt som egentlig ville fyllt akkurat 1 pixel hvis det var i fokus og at resten av bildet er sort. Hvis man da fouriærtransformerer bildet så kan man bruke det ufokuserte bildet til å gjenopprette et bilde at lyspunktet. Hvis man kjører transformasjon på hele bildet så vil det opprinnelige bildet være byggemateriale for et bilde med et annet fokus. Programmet må så klart være matet med data om objektivet. Fouriær krever veldig mye datakraft siden det bruker hele bildet for å produsere hver eneste pixel, men det bør etter mine teorier være mulig. Er det noen av dere med innsikt i matematiske transformasjoner som tror dette lar seg gjøre? 5206368[/snapback] Regner med at du mente fouriertransformasjoner. Har ikke vært borti disse før, men vet godt om fourierrekker, en numerisk variant (bruker differenslikninger istedet for differensiallikninger) av disse. Ut av nysjerrighet, vet du hvor jeg kunne lært mer om fouriertransformasjoner til bruk i bildebehandling? Generelt sett er det ikke mulig (eller svært vanskelig) å oppdrive informasjon som ikke ble lagret i bildet da det ble tatt, så jeg er nysjerrig på hvordan du mener det kan gå. Endret 27. november 2005 av Goldfish Lenke til kommentar
Shutter Skrevet 27. november 2005 Del Skrevet 27. november 2005 En ting er sikkert; Det er ikke bare vanskelig å oppdrive informasjon som ikke ligger i bildet i utgangspunktet, det er komplett umulig. Det eneste man kan gjøre er å fremheve eller dempe den informasjonen som er der. Jeg har brukt Fouriertransformasjoner en del til signalbehandling men ikke direkte til bildebehandling, selv om jeg vet det brukes der også. JPG bruker bla.a en fourier-liknende transformasjon for å komprimere bilder. Det en Fouriertransformasjon gjør, er å endre informasjonen fra å være tidsavhengig til å bli frekvensavhengig. Om man f.eks tar et lydopptak, vil dette opptaket være en rekke verdier som utspiller seg over tid. Ved å fouriertransformere dette opptaket får man istedet ut styrken til de forskjellige frekvensene i dette opptaket. Man kan da gjøre behandling på disse dataene, og så transformere det tilbake til tidsplanet. Dette er veldig nyttig i signalbehandling og kan f.eks brukes til å filtrere bort uønskede frekvenser, analysere data etc. Når det gjelder bruk i bildebehandling, brukes en 2D versjon av Fourier transform. Transformen fungerer på samme måten, ved at den finner frekvenser. Mer spesifikt anser transformen bildet som en kombinasjon av forskjellige cosinus kurver med forskjellige frekvenser og amplituder, og resultatet er nettopp disse amplitudene. Siden det er snakk om et bilde, og ikke et signal, gjøres dette i to dimensjoner. Dette kan brukes til å finne skarpe overganger (høye frekvenser) i et bilde, fjerne støy (v bestemte frekv) etc. Se f.eks her for litt mer forklaring. Håper det gav ett lite innblikk i Fourier transformasjoner. Hvorfor dette fungerer skal jeg ikke prøve å gå inn på Fourier kan ved spesielle filtersettinger utføre vanlig oppskarping og også blure et bilde. Men dette er ikke magi, det er kun fremheving og demping av den informasjonen som er der. Derfor tror jeg det blir vanskelig å f.eks skifte fokuspunkt på et bilde som allerede er tatt, ved bruk av Fourier transformasjon. Da snakker vi om å på en eller annen måte hente fram igjen informasjon om detaljene fra de tingene som er ute av fokus. Disse detaljene tror jeg går tapt i det du trykker på utøseren, på et normalt kamera. Men man vet jo aldri hva som dukker opp i fremtiden... Lenke til kommentar
Simen1 Skrevet 27. november 2005 Del Skrevet 27. november 2005 Som eksemplet mitt litt lengre opp her med en lysende prikk på størrelse med en pixel så blir pixelen bluret utover. Denne kan bli samlet til ett punkt igjen med den rette matematikken. Det samme tror jeg er mulig med et bilde med f.eks 10 lysende punkter eller 10 millioner punkter. Det trengs bare matematikk for å sortere og samle de dataene som allerede ligger i bildet. Lenke til kommentar
Shutter Skrevet 27. november 2005 Del Skrevet 27. november 2005 Med en lysende prikk, kan jeg se at dette kan gjøres med rett matte. Dette fordi informasjonen fra den ene prikken er bare "smurt" litt utover, men den er fortsatt der og blir ikke forstyrret av noe annet. Problemet oppstår når du har mange prikker. Informasjonen fra alle disse prikkene flyter da i hverandre og resultatet på hver pixel blir en kombinasjon av mange prikker. I et vanlig bilde vil en pixel på et uskarpt punkt være en kombinasjon av uendelig mange punkter som ikke er i fokus. I denne sammenblandingen går mye informasjon tapt. Man kan oppnå samme farge på en pixel med uendelig mange kombinasjoner av lysfarger. Hvordan skal man da klare å skille ut de forskjellige fargene fra de opprinnelige punktene? Det samme gjelder lysstyrken... For å ta en banal sammenligning; Man kan få tallet 100 ut av å summere et uendelig antall kombinasjoner av tall, men er ikke mulig å finne ut hvilken kombinasjon som ble brukt kun ved å se på tallet. Og når det er snakk om et bilde, er det kun tallene vi har. Derfor tror ikke jeg dette er mulig å oppnå kun ved etterbehandling. Fourier kan brukes til å filtrere/forsterke forskjellige frekvenser, men dette høres litt for magisk ut for meg. Men det er nå bare min mening. Dersom det faktisk er mulig; hvorfor har vi ikke en re-fokus funksjon i ps? (som faktisk refokuserer da ) Lenke til kommentar
Goldfish Skrevet 27. november 2005 Del Skrevet 27. november 2005 Takk for oppklarende hjelp, Shutter. Har alltid lurt på hvordan equalizere (justering av bass/diskant på forsterkere) fungerer, og nå vet jeg det! Lenke til kommentar
perperper Skrevet 27. november 2005 Del Skrevet 27. november 2005 Dersom vi tenker litt høyt her nå, så kan vi se hva vi kommer fram til. (Jeg tar seff. alle mulige forbehold om at jeg slettes ikke har spesielt god peiling på optikk eller signalbehandling, jeg sitter også på en pc med den ekleste touchpadden, så om dere ser tilfeldige bokstaver rundtom, så er det fordi jeg ikke har klart å rydde helt opp etter tilfeldige touchpadtrykk..) Altså: Det som skjer når en tar bilder i fokus er at lys fra ett "punkt i virkeligheten" treffer filmen i kun ett punkt. Tar vi bilder ute av fokus vil lyset fra ett "punkt i virkeligheten" treffe filmen i flere punkter på filmen. Det finnes mao. et en-til-en-forhold mellom punkter i virkeligheten og på filmen når vi har tatt bilder som er i fokus. Sett at vi har en to-dimensjonal verden, hvor linsa og filmen følgelig er en-dimensjonale. Vi setter benevningen av lyspunkter til RGB, med max-verdi på 8, benevnt slik: rødt: 800, grønt: 080 og blått: 008. Vi setter for letthets skyld også ccden vår til å kun samle opp 3 pixler, og med en fokusvektor som gir oss at et bilde av en blå prikk gir oss resultatet 000 008 000 som avlesningsverdier fra ccden. Dersom vi nå tar bildet av det blå punktet ute av fokus, kan vi tenke oss at vi får denne avlesningen: 004 006 004. Greit nok. Dette er vel så langt vi kan komme uten å trekke inn matematikken. La oss se matematisk på det, og her følger det to mulige måter å se det på. Selv helder jeg etterhvert mer mot den siste, men jeg skrev den første først, så her kommer den: Alternativ nummer 1: Vi tenker oss motivet lyses opp av en scanner, som scanner virkeligheten punkt for punkt. Vi vil da kunne se på linsen som en filterfunksjon for virkeligheten. Dersom linsa er i fokus, vil vi ha en impulsrespons i linsa h(x) = D(x), hvor D er Diracs deltafunksjon (Definert slik: D(x) = 1 for X=0, og 0 ellers). Vi vil da følgelig kunne tenke oss at dersom vi har tre pixler vi skal ta bilde av, en svart, en blå og en svart, vil kameraet se og lese svart,blå,svart, og avsette dette på ccden 000,008,000 - som vi er vante til. Dette tilsvarer foldingsproduktet mellom h(x) og virkeligheten, la oss kalle den v(x), og vi får da at resultatet y(x) = v(x)(*)h(x) = 000*0 + 000*0 + 000*0,000*0+008*1+000*0,000*0 + 000*0 + 000*0 = 000,008,000. (Hvor (*) tilsvarer konvolusjonstegnet) Dersom vi hadde hatt ei linse ute av fokus, som der oppe, ville vi sett at fotoaparatet hadde lest de samme prikkene som "litt blått","greit mye blått","litt blått", eller tilsvarende h(x) = 0,5D(x-1)+6/8*D(x)+0,5D(x+1), igjen tilsvarende y(x)=v(x)(*)h(x) = 000*0+000*0+008*0,5,000*0+008*8/6+000*0,008*0+000*0+000*0 = 004,006,004. Spørsmålet er da som følger: taper vi informasjon i denne prosessen? Og svaret er jeg ikke helt sikker på. Dersom vi fouriertransformerer det hele sitter vi med at Y(w)=V(w)*H(w), og vi kan rekonstruere virkeligheten ganske greit med å sette V(w) = Y(w)/H(w). Dette strider likevel mot mye av det vi kjenner fra lysbildeaparatet, hvor et bilde ute av fokus ikke kan stilles i fokus ved å stille framviseren ut av fokus. Alternativ nummer 2: Vi kan rekonstruere et negativt resultat ved å tenke på at filmen på mange måter er en punktprøving av virkeligheten. Det er kjent at vi, dersom vi punktprøver et båndbegrenset signal med samplingrate 2 Bm (Max båndbredde) kan rekonstruere signalet eksakt. Dersom vi ikke punktprøver signalet så ofte, vil vi slite med aliasing av signalet, og tap av informasjon. Som sagt er jeg ikke spesielt god i signalbehandling, så jeg tar mine forbehold om det følgende: Alle vet at lys er båndbegrenset oppad. Kommer vi for høyt i frekvens forlater vi det synlige spekteret. Problemet vårt er at vi her punktprøver signalet i rommet, og ikke i tid. Følgelig er basisfunksjonene i rommet ikke nødvendig vis båndbegrenset på samme måte som det enkelte lyssignalet i tidsdomenet. Om vi ser på virkeligheten som kontinuerlig, og at vi med infinitesimal nøyaktighet kan forandre fargenyanser så mye vi vil, altså at vi har uendelig mange pixler i motivet, og at vi kan forandre fargen på dem uendelig hurtig (altså at vi uavhengig kan fargelegge uendelig mange punkter i virkeligheten) er det åpenbart at "signalene rommet" ikke er båndbegrenset, og følgelig ikke kan rekonstrueres nøyaktig når de først er samplet. Jeg synes det siste avsnittet gir mest mening. Jeg håper noen som har peiling kan se over Lenke til kommentar
larsvinc Skrevet 27. november 2005 Del Skrevet 27. november 2005 Pkt 1: Som shutter påpekte med link nedenfor: Fouriertransformen av et bilde er ikke et slørt "bilde" men ofte noe fullstendig anderledes! Pkt 2: Dette har ingenting med båndbredde å gjøre. Problemet oppstår i det lysstråler fra forskjellige punkter i den mye omtalte "virkeligheten" treffer samme pixel i kameraet. Da er det i ettertid umulig å kunne si hvor mye fra de forskjellige punktene fra virkeligheten som traff en pixel. En enkel analogi: den gode gamle vannanalogien. Tenk deg at du har 3 tomme bøtter stående på verandaen. Nå skal du og to kompiser slå en bøtte med vann hver over disse tre bøttene. Dermed har vi 3 punkter i "virkeligheten" (deg og 2 kompiser) og 3 pixel i kameraet (de tomme bøttene). Dersom linsen er i fokus vil dere treffe en bøtte hver, og man vil kunne si nøyaktig hvor mye vann hver av dere hadde i bøtta før dere slo vannet ut. Dersom linsen er utav fokus derimot vil dere alle treffe litt over den ene og den andre bøtta, og det vil være helt umulig å si hvem som hadde hvor mye vann i bøtta si før dere slo ut vannet. Den eneste måten dette skulle vært mulig på er hvis dere hadde nøyaktig informasjon om hvordan vannet fra hver av dere slo rundt i luften, og hvordan det landet. Dette tilsvarer at man viste nøyaktig avstand til alle punkter i motivet (hvordan vannet beveger seg i luften) , og nøyaktig hvordan dette ble brutt i objektivet hvordan det lander over de tomme bøttene). Og det er nettopp dette man nå har gjort ved å legge inn denne matrisen lengre ut i objektivet... Lenke til kommentar
foton Skrevet 27. november 2005 Del Skrevet 27. november 2005 Alternativ nummer 1:Vi tenker oss motivet lyses opp av en scanner, som scanner virkeligheten punkt for punkt. Vi vil da kunne se på linsen som en filterfunksjon for virkeligheten. Dersom linsa er i fokus, vil vi ha en impulsrespons i linsa h(x) = D(x), hvor D er Diracs deltafunksjon (Definert slik: D(x) = 1 for X=0, og 0 ellers). Vi vil da følgelig kunne tenke oss at dersom vi har tre pixler vi skal ta bilde av, en svart, en blå og en svart, vil kameraet se og lese svart,blå,svart, og avsette dette på ccden 000,008,000 - som vi er vante til. Dette tilsvarer foldingsproduktet mellom h(x) og virkeligheten, la oss kalle den v(x), og vi får da at resultatet y(x) = v(x)(*)h(x) = 000*0 + 000*0 + 000*0,000*0+008*1+000*0,000*0 + 000*0 + 000*0 = 000,008,000. (Hvor (*) tilsvarer konvolusjonstegnet) Dersom vi hadde hatt ei linse ute av fokus, som der oppe, ville vi sett at fotoaparatet hadde lest de samme prikkene som "litt blått","greit mye blått","litt blått", eller tilsvarende h(x) = 0,5D(x-1)+6/8*D(x)+0,5D(x+1), igjen tilsvarende y(x)=v(x)(*)h(x) = 000*0+000*0+008*0,5,000*0+008*8/6+000*0,008*0+000*0+000*0 = 004,006,004. Spørsmålet er da som følger: taper vi informasjon i denne prosessen? Og svaret er jeg ikke helt sikker på. Dersom vi fouriertransformerer det hele sitter vi med at Y(w)=V(w)*H(w), og vi kan rekonstruere virkeligheten ganske greit med å sette V(w) = Y(w)/H(w). Dette strider likevel mot mye av det vi kjenner fra lysbildeaparatet, hvor et bilde ute av fokus ikke kan stilles i fokus ved å stille framviseren ut av fokus. Her har du bare beskrevet at lys ute av fokus sprer seg på flere pixler og er ikke nærmere noen konklusjon. Dessuten er matematikken din feil. Diracs deltafunksjon kan kun brukes på kontinuerlige variable, og i tilfeller med diskrete pixler må du bruke Kronecker delta. Forøvrig er det egentlig det du gjør. Alternativ nummer 2: Vi kan rekonstruere et negativt resultat ved å tenke på at filmen på mange måter er en punktprøving av virkeligheten. Det er kjent at vi, dersom vi punktprøver et båndbegrenset signal med samplingrate 2 Bm (Max båndbredde) kan rekonstruere signalet eksakt. Dersom vi ikke punktprøver signalet så ofte, vil vi slite med aliasing av signalet, og tap av informasjon. Som sagt er jeg ikke spesielt god i signalbehandling, så jeg tar mine forbehold om det følgende: Alle vet at lys er båndbegrenset oppad. Kommer vi for høyt i frekvens forlater vi det synlige spekteret. Problemet vårt er at vi her punktprøver signalet i rommet, og ikke i tid. Følgelig er basisfunksjonene i rommet ikke nødvendig vis båndbegrenset på samme måte som det enkelte lyssignalet i tidsdomenet. Om vi ser på virkeligheten som kontinuerlig, og at vi med infinitesimal nøyaktighet kan forandre fargenyanser så mye vi vil, altså at vi har uendelig mange pixler i motivet, og at vi kan forandre fargen på dem uendelig hurtig (altså at vi uavhengig kan fargelegge uendelig mange punkter i virkeligheten) er det åpenbart at "signalene rommet" ikke er båndbegrenset, og følgelig ikke kan rekonstrueres nøyaktig når de først er samplet. Jeg synes det siste avsnittet gir mest mening. Jeg håper noen som har peiling kan se over Skjønner faktisk ikke hva du forsøker å si her? Hvorfor er det snakk om å forandre farge "uendelig hurtig"? Når man tar ett bilde med en kamera sampler man ikke i tidsdomenet i det hele tatt. Det man gjør er å projisere 3D verdenen ned på en 2D brikke som sampler lysfordelingen i 2D rommet. Og derfor har du allerede kastet bort all informasjon om hvor lyset egentlig kom fra. Forøvrig så tror jeg det er like greit å la debatten ligge. Tro meg når jeg sier at dersom det hadde vært mulig å lagre 3-dimensjonal informasjon på en 2-dimensjonal brikke ved en enkel fouriertransformasjon så hadde allerede Canon og Nikon sine ingeniører gjort det. Lenke til kommentar
larsvinc Skrevet 27. november 2005 Del Skrevet 27. november 2005 Det man gjør er å projisere 3D verdenen ned på en 2D brikke som sampler lysfordelingen i 2D rommet. Og derfor har du allerede kastet bort all informasjon om hvor lyset egentlig kom fra. 5217329[/snapback] Dette er jo fullt mulig! Avstandsinformasjonen ligger jo i fasen til lyset (hvilket er vanskelig å lagre men fullt mulig!). Derav finnes det hologram. Videre er vårt syn like fullt en 2D projeksjon av den 3D verdenen, men vi greier fullt ut å oppfatte avstand så det du sier henger ikke på greip... Lenke til kommentar
medi8or Skrevet 27. november 2005 Del Skrevet 27. november 2005 Videre er vårt syn like fullt en 2D projeksjon av den 3D verdenen, men vi greier fullt ut å oppfatte avstand så det du sier henger ikke på greip... 5217688[/snapback] Vi (vel, dere.. ) snakker fortsatt om bilde tatt gjennom ei linse, eller hva? Hvordan går det med dybdeoppfatningen din når du holder for det ene øyet ditt? Lenke til kommentar
perperper Skrevet 27. november 2005 Del Skrevet 27. november 2005 Alternativ nummer 1: Spørsmålet er da som følger: taper vi informasjon i denne prosessen? Og svaret er jeg ikke helt sikker på. Dersom vi fouriertransformerer det hele sitter vi med at Y(w)=V(w)*H(w), og vi kan rekonstruere virkeligheten ganske greit med å sette V(w) = Y(w)/H(w). Dette strider likevel mot mye av det vi kjenner fra lysbildeaparatet, hvor et bilde ute av fokus ikke kan stilles i fokus ved å stille framviseren ut av fokus. Her har du bare beskrevet at lys ute av fokus sprer seg på flere pixler og er ikke nærmere noen konklusjon. Dessuten er matematikken din feil. Diracs deltafunksjon kan kun brukes på kontinuerlige variable, og i tilfeller med diskrete pixler må du bruke Kronecker delta. Forøvrig er det egentlig det du gjør. Greit nok at det finnes et annet navn på den diskrete deltafunksjonen. Men det viktigste er at det ER en konklusjon der, ettersom vi har kommet fram til at vi kan rekonstruere virkeligheten dersom vi vet impulsresponsen til filteret og sitter med resultatet (altså det bildet som er ute av fokus). Det er viktig nok. Spørsmålet er bare om det er mulig å tenke slik, eller om det blir feil når vi vet at virkeligheten ikke er diskret, eller todimensjonal for den del. Som du sier under, så har vi mistet all informasjon om avstanden til motivet. Jeg glemte å ta hensyn til det, en har jo naturlig vis ikke noen h(x), men en H(x,s) hvor s er avstand til motivet. Det ødelegger nok mye av matematikken her. Det kan også godt hende at en ved å bruke en scanner som "blits" skaper et bilde som ikke er likedan som det bildet en ville fått dersom en brukte en "kontinuerlig" lyyskilde som blits. Alternativ nummer 2: Vi kan rekonstruere et negativt resultat ved å tenke på at filmen på mange måter er en punktprøving av virkeligheten. Det er kjent at vi, dersom vi punktprøver et båndbegrenset signal med samplingrate 2 Bm (Max båndbredde) kan rekonstruere signalet eksakt. Dersom vi ikke punktprøver signalet så ofte, vil vi slite med aliasing av signalet, og tap av informasjon. Som sagt er jeg ikke spesielt god i signalbehandling, så jeg tar mine forbehold om det følgende: Alle vet at lys er båndbegrenset oppad. Kommer vi for høyt i frekvens forlater vi det synlige spekteret. Problemet vårt er at vi her punktprøver signalet i rommet, og ikke i tid. Følgelig er basisfunksjonene i rommet ikke nødvendig vis båndbegrenset på samme måte som det enkelte lyssignalet i tidsdomenet. Om vi ser på virkeligheten som kontinuerlig, og at vi med infinitesimal nøyaktighet kan forandre fargenyanser så mye vi vil, altså at vi har uendelig mange pixler i motivet, og at vi kan forandre fargen på dem uendelig hurtig (altså at vi uavhengig kan fargelegge uendelig mange punkter i virkeligheten) er det åpenbart at "signalene rommet" ikke er båndbegrenset, og følgelig ikke kan rekonstrueres nøyaktig når de først er samplet. Jeg synes det siste avsnittet gir mest mening. Jeg håper noen som har peiling kan se over Skjønner faktisk ikke hva du forsøker å si her? Hvorfor er det snakk om å forandre farge "uendelig hurtig"? Når man tar ett bilde med en kamera sampler man ikke i tidsdomenet i det hele tatt. Det man gjør er å projisere 3D verdenen ned på en 2D brikke som sampler lysfordelingen i 2D rommet. Og derfor har du allerede kastet bort all informasjon om hvor lyset egentlig kom fra. 5217329[/snapback] Det er snakk om å forandre farge uendelig hurtig her nettop fordi vi ikke sampler lyset i mer en ett tidspunkt. For å fouriertransformere bildet må vi da se på lysforandringen i rommet - vi må bruke basisfunksjoner som er avhengige av rommet og ikke tiden. Hadde vi skullet sample et lyssignal kunne vi brukt tidsavhengige basisfunksjoner for å rekonstruere et tidskontinuerlig lyssignal eksakt dersom vi samplet greiene med 2*Fmax hvor Fmax er den støreste mulige frekvensen til synlig lys. Men, og her kommer poenget, for selv om lys i seg selv er båndbegrenset oppad, er ikke nødvendig vis virkelighetens farger begrenset på samme måte i rom-aksen. Her er en bedre illustrasjon av hva jeg mener: om vi tenker oss en kontinuerlig funksjon F(x) som gir farger ved punktet x i rommet, er ikke denne funksjonen på noen måte båndbegrenset, selv om lyset i hvert punkt har en frekvens som er båndbegrenset - altså begrenset verdiområde. Hensikten her er altså å vise at vi får aliasing-feil ved sampling ute av fokus fordi det ikke finnes et endelig antall punkter som vil være lik 2*Fmax og at vi dermed har tapt informaskon det er umulig å finne tilbake. Ble det klarere nå (om ikke mer mulig av den grunn)? Lenke til kommentar
Shutter Skrevet 28. november 2005 Del Skrevet 28. november 2005 Takk for oppklarende hjelp, Shutter. Har alltid lurt på hvordan equalizere (justering av bass/diskant på forsterkere) fungerer, og nå vet jeg det! 5215919[/snapback] Bare hyggelig det! Litt off topic, men likevel viktig å oppklare synes jeg; Det er ikke helt sånn equalizer fungerer, ikke den anologe varianten hvertfall. De bruker heller en kombinasjon av analoge filtre som er bygd opp av spoler og kondensatorer. (Akkurat som delefilteret inne i en vanlig høyttaler) . Fourier transformen kan isteden brukes til å designe disse filterene, ved å sørge for at de filtrerer de rette frekvensene. Når det gjelder den digitale varianten, antar jeg at disse bruker de diskrete versjonene av de samme filtrene, uten å være helt sikker. Uansett har nok fourier vært inne i bildet ved designing av disse også. Dvs. Fourier transform brukes nok ikke direkte i denne signalbehandlingen, men heller som et hjelpemiddel under designet av dem. Tilbake til temaet; Jeg tror avstandsinformasjon er stikkordet her. Brytning i objektiv kan man i terioen gjenskape helt nøyaktig men avstandene til alle punktene er ukjent og kan ikke gjenskapes. Dette er jo fullt mulig! Avstandsinformasjonen ligger jo i fasen til lyset (hvilket er vanskelig å lagre men fullt mulig!). Derav finnes det hologram. Videre er vårt syn like fullt en 2D projeksjon av den 3D verdenen, men vi greier fullt ut å oppfatte avstand så det du sier henger ikke på greip... For å kunne gjøre dette med fase informasjon må man vite nøyaktig fase i det lyset forlater punktet i "virkeligheten". Fargen på lyset vil avsløre bølgelengden, men dette må bestemmes pinlig nøyaktig. I tillegg må aman vite hvor mange hele ganger denne bølgelengden har mellom deg og objektet, dvs du må ha et veldig nøyaktig (mindre en en bølgelengde for lys) estimat fra før av. Derfor tviler jeg på at måling av fase er løsningen på dette problemet. Øynene våre bruker (som nevnt) avstanden mellom øynene våre og forskjellen i vinkel (trigonometri) til å beregne avstanden til objekter. Lenke til kommentar
larsvinc Skrevet 28. november 2005 Del Skrevet 28. november 2005 Vi (vel, dere.. ) snakker fortsatt om bilde tatt gjennom ei linse, eller hva? Hvordan går det med dybdeoppfatningen din når du holder for det ene øyet ditt? 5217943[/snapback] Men det er jo nettopp det som har med fasen til lyset å gjøre. Dersom man var i stand til å måle fasen til lyset får man jo nettopp dybden. Dette gjøres i vårt hodet med 2 øyne (og hinsides rask signalprosessering). Dette innebærer at man: a) må lage detektorteknologi som registerer fasen til lyset hvilket er bortimot umulig. b) må benytte 2 detektorer separert i rom for å måle fasen (litt jamfør det som de har gjort i artikkelen). c) På et vis greie å få med fasen til lyset ved å la det gå 2 gangveier av ulik lengde. Dette er det som gjøres ved holografier som gir den "3d" effekten. Lenke til kommentar
foton Skrevet 28. november 2005 Del Skrevet 28. november 2005 Vi (vel, dere.. ) snakker fortsatt om bilde tatt gjennom ei linse, eller hva? Hvordan går det med dybdeoppfatningen din når du holder for det ene øyet ditt? 5217943[/snapback] Men det er jo nettopp det som har med fasen til lyset å gjøre. Dersom man var i stand til å måle fasen til lyset får man jo nettopp dybden. Dette gjøres i vårt hodet med 2 øyne (og hinsides rask signalprosessering). Dette innebærer at man: a) må lage detektorteknologi som registerer fasen til lyset hvilket er bortimot umulig. b) må benytte 2 detektorer separert i rom for å måle fasen (litt jamfør det som de har gjort i artikkelen). c) På et vis greie å få med fasen til lyset ved å la det gå 2 gangveier av ulik lengde. Dette er det som gjøres ved holografier som gir den "3d" effekten. 5218811[/snapback] Nei, nei, dette er feil. Vi gjør ikke noe prosessering eller deteksjon av fasen til lyset i hodet våres. Våres oppfatning av 3D kommer av at vi ser to litt forskjellige bilder med høyre og venstre, samt at vi baserer oss på erfaring som forteller oss om noe er langt unna eller nært når vi fra erfaring kan si noe om ca størrelser. Og det er ikke mulig å lage informasjon om faser på en 2D ccd eller cmos slik de er i dag. Derfor mister man info når man projiserer fra 3D til 2D. At man kan lagre slik informasjon i f.eks. hologram endrer ikke egenskapene til en CCD/CMOS beregne for fotografi. Lenke til kommentar
Simen1 Skrevet 28. november 2005 Del Skrevet 28. november 2005 Bølgelengden til lys er ca 380 til 740nm. Det vil si at om mam flytter seg så lite som en mikrometer i forhold til lyskilden så vil man allerede ha passert flere faser. Nervesignaler er raskt men ikke i nærheten av så raskt som elektriske signaler eller lysets hastigeht siden signalet mellom hver nervecelle til kjemiske signaler. Med så treg signalhastighet er det umulig å drive med faseprosessering. Øynens dybdeoppfattelse fungerer nok mye likere vanlige kameraer med autofokus. Altså at øyet fokuserer litt ut og inn for å fokusere skarpt på det man ser på. På veldig nært hold (under noen få meters avstand) vil stereosynet også bidra til dybdeoppfattelsen. Altså det at øynene står litt fra hvarandre og ser objekter fra litt forskjellig vinkel. Holografier kan forsåvidt bare taes med monokromatisk fasesynkront lys. (Laserlys). Hvis man bruker vanlig lys så blir det ikke noe holografi. Lenke til kommentar
larsvinc Skrevet 28. november 2005 Del Skrevet 28. november 2005 Nei, nei, dette er feil. Vi gjør ikke noe prosessering eller deteksjon av fasen til lyset i hodet våres. Våres oppfatning av 3D kommer av at vi ser to litt forskjellige bilder med høyre og venstre, samt at vi baserer oss på erfaring som forteller oss om noe er langt unna eller nært når vi fra erfaring kan si noe om ca størrelser. 5219064[/snapback] Tror nok ikke dette er rent empirisk fra person til person. Noe "signalbehandling" foregår jo så til de grader! Faktisk foregår det en veldig rask fouriertransform, men nok om det tekniske i hodet. Når det gjelder to bilder til å detektere fase er jo dette et velkjent fenomen, dette brukes jo feks i interferrometer! Lenke til kommentar
Anbefalte innlegg