Gå til innhold

Interpolerte megapixler


Anbefalte innlegg

Interpolering er kun en metode som brukes for å gjøre en kvalifisert gjetning om manglende informasjon. Dersom denne informasjonen hadde eksistert hadde man ikke hatt behov for å interpolere - i det hele tatt. Interpolering er altså en måte å behandle MANGLENDE informasjon, ikke en måte å behandle "nesteninformasjon" eller andre mirakler. Matematisk sett er det å interpolere å estimere en verdi i en funksjon eller serie mellom to kjente verdier - og det er nøyaktig det som skjer.

 

Det er jo det glade vanvidd å tro at et 12Mp interpolert bilde skal inneholde mer - korrekt - informasjon enn et 6Mp - eller at 6 interpolert skulle ha mer enn 3. Hadde det eksistert informasjon om de manglende punktene så hadde det ikke vært behov å interpolere, og du kan ta gift på at det uttrykket ikke hadde blitt brukt. Ta et hvilket som helst bilde og doble antall punkter i f.eks photoshop. Selvsagt har bildet mer "detalj" - photoshop har akkurat gjettet seg til hva som var der basert på hvilken algoritme du valgte og hva de omliggende punktene er. Det betyr jo ikke at det var det det skulle ha vært, bare at du har fått 'noe' der som sannsynligvis vil "passe".

 

For å oppsummere - interpolering betyr altså å gjette basert på kjente verdier. Vet du noe, så trenger du ikke gjette, altså trenger du ikke interpolere.

Endret av SunMaster
Lenke til kommentar
Videoannonse
Annonse
Interpolering er kun en metode som brukes for å gjøre en kvalifisert gjetning om manglende informasjon. Dersom denne informasjonen hadde eksistert hadde man ikke hatt behov for å interpolere - i det hele tatt. Interpolering er altså en måte å behandle MANGLENDE informasjon, ikke en måte å behandle "nesteninformasjon" eller andre mirakler. Matematisk sett er det å interpolere å estimere en verdi i en funksjon eller serie mellom to kjente verdier - og det er nøyaktig det som skjer.

 

Det er jo det glade vanvidd å tro at et 12Mp interpolert bilde skal inneholde mer - korrekt - informasjon enn et 6Mp - eller at 6 interpolert skulle ha mer enn 3. Hadde det eksistert informasjon om de manglende punktene så hadde det ikke vært behov å interpolere, og du kan ta gift på at det uttrykket ikke hadde blitt brukt. Ta et hvilket som helst bilde og doble antall punkter i f.eks photoshop. Selvsagt har bildet mer "detalj" - photoshop har akkurat gjettet seg til hva som var der basert på hvilken algoritme du valgte og hva de omliggende punktene er. Det betyr jo ikke at det var det det skulle ha vært, bare at du har fått 'noe' der som sannsynligvis vil "passe".

 

For å oppsummere - interpolering betyr altså å gjette basert på kjente verdier. Vet du noe, så trenger du ikke gjette, altså trenger du ikke interpolere.

Slik oppsettet på Fujifilms Super-CCD er må man ha dobbelt så mange linjer i en konvensjonell x*y bildefil (men ikke RAW) for å gjengi all informasjonen CCD-brikken fanger opp. Den "interpoleringen" som skjer i Fujifilm-kameraer med super CCD-brikke går dermed ikke ut på øke antall linjer hverken horisontalt eller vertikalt, men på å fylle ut manglende informasjon langs diagonalene. Da de fleste detaljer i fotografier normalt befinner seg langs en x- (eks. horisont) eller y-akse (eks. trestamme)fanger man på denne måten opp mer informasjon en det man hadde gjort gjennom å bruke en konvensjonell bildebrikke. Jeg har allerede postet 2 figurer i denne debatten som forklarer dette i detalj.

Lenke til kommentar

Jeg har lest postene dine, og du skjønner fortsatt ikke hva dette er snakk om. Det er nøyaktig det samme om interpoleringen skjer horisontalt, vertikalt eller diagonalt. Hele poenget er at det "mangler" en pixel/punkt der - og du har absolutt ingen informasjon om hva som skal være der - med unntak av de omliggende punktene.

 

Det finnes ingen "mirakelmetoder" for å erstatte manglende informasjon, kun algoritmer for å "glatte" på bildet når du skalerer det opp. Hvis du tror mirakelccd'en kan gjøre det kan du se for deg en test der de omliggende punktene er, og skal være, blå, mens det punktet som mangler skal være rødt. Alle interpoleringsalgoritmene jeg har hørt om ville interpolert det manglende punktet til blått.

 

Det spiller ingen rolle om det "skal være" dobbelt så mangle linjer de manglende punktene interpoleres uansett - basert på omliggende punkter.

 

Fuji snakker om et større dynamisk område, ikke flere punkter. For hvert punkt den store sensoren snapper opp har den lille ekstra informasjon. Den brukes altså ikke til "mellomliggende" punkter. Den andre sensoren brukes altså til å hjelpe til med å definere fargene i de svært lyse og svært mørke fargene - ikke for å helt magisk "skape" nærliggende punkter.

 

Det eneste som altså skiller denne CCDen fra andre CCDer er at den, i teorien, kan skille bedre mellom de lyseste og mørkeste fargene.

 

Dette er ikke magi. Ett punkt er ett punkt er ett punkt er ett punkt. Ikke noe i veien med Fuji's CCDer, men å lagre bildet i interpolert oppløsning i kameraet lager ikke et bildet som er bedre og inneholder OVERHODET IKKE mer detaljer enn det photoshop kan lage. Hvis du faktisk mener Fuji har "slått matematikken" kan du kanskje vise dette med et praktisk eksempel der det interpolerte bildet laget av kameraet har mer detaljer enn det bildet som ble lagret normal og interpolert i photoshop. Action speaks louder than words, og Fuji forsøker selvsagt å selge teknologien sin for alt det er verdt.

 

Interpolering er ikke noe nytt i data og elektronikkbransjen, scannere har vært markedsført med sin maks interpolerte oppløsning siden 80-tallet. De ble aldri bedre enn sin optiske oppløsning, du fikk kun en større fil på PCen din.

Lenke til kommentar

Poenget her er at man trenger flere linjer i en standard bildefil for å gjengi all informasjonen fra en super-CCD i forhold til en konvensjonell CCD, og det burde være opplagt utifra figurene jeg har postet her. Hvis du lagrer bildene i jpg-format kan du velge om du vil bruke 12mp formatet, der manglende informasjon er fylt ut ved hjelp av "interpolering", eller så kan lagre bilde i 6mp-format. Velger du 6mp-formatet interpoleres bildet NED da antall vertikale og horisontale linjer nødvendigvis må reduseres. Når fujifilm har plassert sensorene på CCD-brikken på denne kreative måten skyldes det måten detaljene i et typisk fotografi er plassert på. Dette dreier seg altså ikke om å "slå matematikken", men enkel regning basert på gode gamle Pythagoras.

 

Dette med å øke det dynamiske området gjennom én stor og én liten ekstrasensor er en teknologi jeg tror man bare finner i F700, men ikke på de vanlige Super-CCD brikkene.

Endret av DigiCamFan
Lenke til kommentar
Poenget her er at man trenger flere linjer i en standard bildefil for å gjengi all informasjonen fra en super-CCD i forhold til en konvensjonell CCD, og det burde være opplagt utifra figurene jeg har postet her.

 

Nei, det er det ikke. Det enste som er opplagt er at Fuji har en annen fysisk organisering av punktene enn de fleste andre CCDer.

 

Hvis du lagrer bildene i jpg-format kan du velge om du vil bruke 12mp formatet, der manglende informasjon er fylt ut ved hjelp av "interpolering", eller så kan lagre bilde i 6mp-format. Velger du 6mp-formatet interpoleres bildet NED da antall vertikale og horisontale linjer nødvendigvis må reduseres.

 

Tøys. Det er 12Mp som er den interpolerte størrelsen, ikke omvendt. Du forteller her at først tar man bildet, der 6 millioner punkter blir registrert, deretter interpoleres det opp til 12Mp og så etterpå ned til 6Mp. Dette er kun vissvass.

 

http://www.dpreview.com/reviews/fujis2pro/

 

The use of SuperCCD doesn't have the same controversial impact it had when first introduced, but there are still a good number of sceptics of exactly how this honeycomb CCD layout produces better pictures. Fujifilm didn't help themselves back when they first announced SuperCCD by labelling their first camera '4.3 megapixel' when they were in fact 2.4 megapixel images being 'processed' (interpolated to you and me) up to a 4.3 megapixel image.

 

This 'processing' still occurs now, and the S2 Pro has a 6.17 megapixel SuperCCD which produces a 12 megapixel image. SuperCCD works by combining pixels from the 45 degree pixel layout into a normal square pattern, this has the side-effect of producing more image pixels than were actually captured.

 

Videre

 

After performing my own resolution tests I soon discovered that although the 12 mp resolution delivers a larger image it doesn't deliver any more resolution than the 6.1 mp mode. Add to this the storage penalty you'll pay shooting at 12 mp (4 MB JPEG's) and it's clear to see that the 6.1 mp mode is the way to go. In 6.1 mp mode the S2 Pro is more than a match for the current batch of $2000 six megapixel digital SLR's.

 

Og årsaken til at 12Mp ikke gjengir mer detalj enn 6Mp er at det simpelthen ikke er mulig å skape detaljer, kun lage "logiske" overganger mellom punktene.

 

Dette er ikke mytologi. Det er mulig at interpolerte bilder pga. strukturen i CCDen vil i enkelte tilfeller kunne lage bedre bilder enn andre interpolerte bilder fra andre CCD brikker (ett problem med disse CCDene er mer moire enn andre pga. denne stukturen). Men vi snakker uansett om interpolering, ikke gjengivelse av detaljer som CCDen faktisk ikke aner noenting om.

 

Edit : det med den ekstra sensoren tror jeg finnes i den siste generasjonen av fuji CCDene, så de kommer vel etterhvert. Tråden er forresten død for min del, interpolering er interpolering :)

Endret av SunMaster
Lenke til kommentar

SunMaster

 

Dette er informasjonen som kommer fra Super-CCD'en:

X_X_X_X_

_X_X_X_X

X_X_X_X_

 

Kameraet «interpolerer» bildet til dette (Y = nye pixeler):

XYXYXYXY

YXYXYXYX

XYXYXYXY

 

Velger du 6mp-settingen er det dette du får:

ZZZZ

ZZZZ

ZZZZ

 

Det burde ikke være noe problem å se at du her har mistet informasjon...

Lenke til kommentar
Det burde ikke være noe problem å se at du her har mistet informasjon...

 

Du har ikke "mistet" informasjon, for CCDen har aldri visst hva som er der. Den teknikken som brukes for å komme med en kvalifisert gjetning om hva som skulle ha vært der kalles interpolering, og kan aldri skape detaljer.Det vil være bilder der en CCD organisert som Fujien kan lage bedre interpolerte bilder enn andre CCDer, og det vil være bilder der det er motsatt. Finn ut hvorfor moire er et problem med disse CCDene. (hint : Der er en feil som oppstår fordi mønsteret CCDen er organisert i er svært langt fra optimal når det gjelder akkurat 45 graders vinkler - kan du gjette hvorfor ?)

Lenke til kommentar

Interpolering er alldeles ikke gjetning (ekstrapolering derimot...). Alle digitalkamera må gjøre interpolasjon for å komme frem til et endelig bilde enten sensoren heter super CCD eller noe annet (ja også foevon x3).

 

Interpoleringen beregner verdien for en pixel basert på verdien av samplene omkring den. Denne verdien er helt korrekt gitt forutsetningen om at lyset somtraff sensoren har blitt tilstrekkelig lavpassfiltrert. Den forblir korrekt også om du lager mange flere pixler enn hva det finnes sampler, men man endrer ikke oppløsningen på denne måten.

 

Hva fuji's nye sensor angår så har den to fotodioder pr. site. Disse står adskilt på sensoren, så en sensor med 6M fotosites kan da i teorien fange opp en høyere oppløsningen enn hva du kan gjengi med 6M pixler.

Lenke til kommentar
Interpolering er alldeles ikke gjetning (ekstrapolering derimot...)

 

Det er "gjetning", og ingenting annet. Hvis du mener det er noe annet så kan du kanskje finne dokumentasjon på det. I praksis vil det være et matematisk gjennomsnitt av de omliggende punktene. Hva er det med dette du ikke forstår ? Hvis de omliggende punktene er blå og det manglende skulle vært rødt vil det med interpolering bli blått, fordi det ikke er noen grunn til å tro noe annet pga. de omliggende punktene. Det er ingenting nytt og banebrytende med interpolering, det er en gammel metode.

 

Slå opp i ordboka på hva interpolere faktisk betyr. Slå også opp på ekstrapolering. Interpolering er å gjette seg til ("beregne") en verdi som ligger mellom to kjente punkt/funksjonsverdier. Ekstrapolering er å gjette seg til hva som ligger utenfor kjente punkt/funksjonsverdier.

 

Hva fuji's nye sensor angår så har den to fotodioder pr. site. Disse står adskilt på sensoren, så en sensor med 6M fotosites kan da i teorien fange opp en høyere oppløsningen enn hva du kan gjengi med 6M pixler.

 

Du kan jo like godt innrømme at du ikke forstår hva Fuji sier da. De bruker to dioder PER PUNKT - en stor og en liten. Du rører i hop OPPLØSNING/ANTALL PUNKT med evnen til å bedre skille de mørkeste og lyseste fargene. De to til sammen utgjør informasjonen CCDen har om ETT PUNKT, ikke to punkt som blir "slått sammen til ett".

 

Edit : Best å ta for seg dette også

 

Denne verdien er helt korrekt gitt forutsetningen om at lyset somtraff sensoren har blitt tilstrekkelig lavpassfiltrert. Den forblir korrekt også om du lager mange flere pixler enn hva det finnes sampler, men man endrer ikke oppløsningen på denne måten.

 

Dette er jo bare sprøyt med mindre du kun tar bilder av ensfargede flater. La meg forsøke å tegne en kant.

 

1______||

2______||

3______||

4________||

5________||

Denne kanten som er forsøkt laget med || ble "flyttet inn" to plasser på linje 4. Hvis vi skal doble antall horisontale linjer blir det slik der jeg la X'ene stå for de nye verdiene vi skal beregne.

 

1______||

2______XX

3______||

4______XX

5______||

6______XX

7________||

8________XX

9________||

0________XX

 

Så hva mangler egentlig på linje 6 ? Skal det være

 

5______||

6______||

7________||

eller

 

5______||

6_______||

7________||

 

eller

 

5______||

6________||

7________||

 

I følge deg lar dette seg lett finne ut bare "lyset somtraff sensoren har blitt tilstrekkelig lavpassfiltrert". Det finnes ingen måter å *vite* dette på. Du kan gjette eller sannsynliggjøre, og det er det interpolering dreier seg om, og ingenting annet.

Endret av SunMaster
Lenke til kommentar

For å gjøre dette enkelt: Hvis du tar opp en sang fra vinyl og lagrer denne i en 8 bit, 22 khz wav fil, da har du lagret den i den kvaliteten og ingen vei tilbake. Hvis du derimot åpner wave filen og lagrer den i 24bit 96 khz (DAT Kvalitet) får man bedre kvalitet selv om man digital prossesserer den? Nei!!! Akuratt det samme gjelder her. 6 MP er CCD brikken, ved å "blåse" opp den til 12mb digital vil ikke gi noe bedre kvalitet. Uansett hvor mye Fuji prøver å innbilde oss med sin super ccd brikke...

 

Å lagre gamle kassetter i cd kvalitet gir deg bare en større fil, ikke bedre kvalitet..... :nei:

Lenke til kommentar

Det argumentet med at man taper informasjon ved å lagre Super CCD informasjon i en vanlig fil kan man snu på hodet. Hvis man lagrer informasjon fra en vanlig CCD i en Super CCD fil så taper man like mye informasjon.

 

Det betyr at begge inneholder like mye informasjon men litt forskjellig type informasjon. Fuji har prøvd å få med seg mer av de frekvensene som øyet er mest følsomt for på bekostning av frekvenser som øyet er mindre følsomt for. Under optimale forhold så fungerer det til en viss grad. Men testplansjer og vanlige bilder er to forskjellige ting. I vanlige bilder har jeg ikke greide å se noen forskjell.

 

Det lille de har vunnet i bildekvalitet har de tapt mange ganger i anseelse ved å late som de har doblet oppløsningen. Etter en del kritikk i begynnelsen så har moderert seg og nevner de fleste plasser at det ikke er snakk om en virkelig dobling av antallet punkter. For en tid tilbake så var det en overskrift her på akam.no som brukte den interpolerte oppløsninga og ikke den virkelige. I det lange løp så slår det tilbake på Fuji siden det er ingen som liker å kjøpe et kamera og finne ut at man har nesten halvparten av oppløsninga man trodde.

Lenke til kommentar
Det er "gjetning", og ingenting annet. Hvis du mener det er noe annet så kan du kanskje finne dokumentasjon på det.

 

Gjør et søk etter 'det universelle samplingsteoremet' ev. 'the universal sampling theorem' eller bare USM som det ofte blir forkortet.

 

Kortfattet sier dette teoremet at hvis du sampler med en frekvens på f kan du rekonstruere det orginale signalet perfekt (altså ingen 'gjetting') hvis det oprinnelige signalet var båndbegrenset til f/2. For billedsensorer er frekvensen en spatial frekvens istedet for en temporær, og det er lavpassfilteret som sitter foran sensoren som har som ansvar å besørge at signalet blir tilstrekkelig båndbegrenset.

 

Du kan jo like godt innrømme at du ikke forstår hva Fuji sier da. De bruker to dioder PER PUNKT - en stor og en liten. Du rører i hop OPPLØSNING/ANTALL PUNKT med evnen til å bedre skille de mørkeste og lyseste fargene.

 

Hvordan mener du at du kan lage to billedsensorer som _ikke_ er romlig adskilt? Det er en fysisk umulighet å lage to dioder på samme omeråde på substratet. De _må_ være adskilte, dermed kan de i teorien også gi grunnlag for en høyere effektiv spatial samplingsfrekvens. Hvis du ser på utleggsskissen til fuji for deres fotosite ser du da også at det ligger en liten fotosensor til siden for den store i hver fotosite.

 

Dette er jo bare sprøyt med mindre du kun tar bilder av ensfargede flater. La meg forsøke å tegne en kant.

 

[...]

 

Du gjør den klassiske feilen å anta at en skarp kant kan eksistere i bildet. Spesiellt er dette umulig når bildeinformasjonen er lavpassfiltrert. En ideell skarp kant vil ha uendelig høyt frekvensinnhold og vil være umulig å reprodusere med noen sensor (ei heller øyet)

 

Du bør lese litt om Shannon og Nyquists teorier om sampling.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...