Gå til innhold

Hva rettferdiggjør Leica's stive priser?


Anbefalte innlegg

Poenget mitt var ikke hvorvidt sensorer eller film er best, poenget var at Leica analoge kameraer kan bruke film som ble laget når teknologien var perfeksjonert, mens digitale kameraer ikke kan bytte ut sensorer. I hvert fall kan ikke M8 det.

Og poenget mitt var at grunnen til å kjøpe slike film-kamera dyrt er vel så mye nostalgi som tekniske grunner.

 

Spørsmålet blir da om man kjøper Leica som en "investering" i håp om å tjene penger på brukt-salg (da bør man kanskje gå for film), eller om man kjøper det som en innretning for å ta gode bilder (da tror jeg at digital er et godt utgangspunkt).

 

At film er "perfeksjonert" kan like gjerne omfraseres til at "film er et teknologisk blindspor, og det er ikke mer å hente på videreutvikling". For en rasjonell kamera-bruker er det helt irrelevant, så lenge det finnes andre, konkurerende teknologier.

 

-k

Lenke til kommentar
Videoannonse
Annonse
Joda, men neppe med det første. En M9 kan godt vare i minst ti år, og vi vil neppe se noen revolusjon på sensorfronten innenfor den tidshorisonten. I beste fall vil vi se inkrementelle forbedringer som vil ha marginal synlig innvirkning på bildekvaliteten.

 

Vi har nådd punktet hvor (i hvert fall high-end) kameraer kan sammenlignes med dyrere hvitevarer og biler på teknisk levetid.

640KB ought to be enough etc...

 

Fysikk og diffraksjon kan i alle fall si oss noe om hvor mye bedre det er teoretisk mulig å gjøre det med gitte sensorstørrelser, blenderåpning, lukketid etc. Konklusjonen er vel at det ikke er veldig mye mer å hente akkurat der. Men raw-konvertere kan jo bli ubegrenset mye bedre (i alle fall prinsippielt), og kanskje vil det bli fordelaktig å bruke konverteren i kamera i framtiden.

 

Alt rundt oss (også vaskemaskiner) later til å utvikle seg ut fra prinsippet om at motorer, mekanikk, stål, fysikk er relativt statiske begrensninger, mens halvledere og software blir dobbelt så kompleks (dobbelt så bra) hver 18 mnd eller hva det nå var Moore sa. Utfordringen for produsenter er dermed "hvordan lage produktene betydelig bedre for hver generasjon når jeg får mer regnekraft/programvare, mens alt det andre jeg putter inn er relativt konstant"

 

 

Hvor mange av de som deltar i slike diskusjoner er det som faktisk skriver ut i flere kvadratmeter (hvor ørten megapixler i beste fall kan ha noe for seg), eller belyst av et stearinlys (hvor høy iso-ytelse er viktig) etc? Gjør slike egenskaper egentlig bildene bedre for oss andre? Eller er det ansiktsgjenkjenning, smilegjenkjenning, komposisjons-veiledning, pictbridge-knapp og andre anti-elitistiske faktorer som egentlig ville hjulpet oss til bedre bilder?

 

-k

Endret av knutinh
Lenke til kommentar

640KB ought to be enough etc...

Nå handlet ikke akkurat det sitatet om hva som er praktisk gjennomførbart...

 

Alt rundt oss (også vaskemaskiner) later til å utvikle seg ut fra prinsippet om at motorer, mekanikk, stål, fysikk er relativt statiske begrensninger, mens halvledere og software blir dobbelt så kompleks (dobbelt så bra) hver 18 mnd eller hva det nå var Moore sa.
Mnja.

 

Det er faktisk en del områder hvor utviklingen av halvlederteknologi er i ferd med å flate ut. Det har f.eks. skjedd relativt liten forbedring av ytelse per CPU-kjerne i x86-verdenen de siste 2-3 årene, og ytelsesforbedring kommer stort sett gjennom å øke antall kjerner som jobber i parallell. Det blir progressivt vanskeligere å krympe prosessene noe mer, og Moores lov har vel allerede blitt justert fra dobling av antall transistorer per 18 måneder til dobling per 24 måneder eller mer.

 

På kraftelektronikk driver man og finsliper på promillene når det kommer til ytelse/kostnad. Silisiumkarbidrevolusjonen har vært på vent i et par tiår, og diamant er litt pæsat å kommersialisere.

 

Større bildesensorer er uansett et område hvor produksjonsteknikken egentlig ikke har så veldig mye å si, så forbedringene som gjøres der har ikke effekt på ytelsen til hver enkelt sensor. Om du krymper produksjonsprosessen fra 45 til 32 nm, så er fremdeles en APS-C-sensor 24x16mm stor, og mengden lys som treffer den er den samme. Så det er begrenset hvor mye mer det er praktisk gjennomførbart å forbedre med den basisteknologien vi benytter oss av.

 

Effektivisering av signalbehandling og prosessering har en del å si for hvor mye ekstra funksjonalitet du klarer å stappe inn i et kamera, men det har lite praktisk betydning for kvaliteten på grunndataene du henter ut fra sensoren. Uansett, så har jeg liten tro på at det noensinne vil være bedre å la kameraet gjøre jobben med å etterprosessere dem enn å gjøre jobben på en mye større og kraftigere maskin med (i praksis) ubegrenset tid til rådighet.

 

Hvor mange av de som deltar i slike diskusjoner er det som faktisk (...) eller belyst av et stearinlys (hvor høy iso-ytelse er viktig) etc?
*rekke opp hånda*
Lenke til kommentar

Det er jo også et par andre steder vi vil se en utvilking - svakt AA filter (eller ingen). I stedet vil hindring av moire skje vha. prossesoren i kamera.

 

Hvis jeg husker rett, så har ikke M9 AA filter i det hele tatt. Olympus E-5 har et markant svakere AA filter enn tidligere 12MP brikker, kombinert med kraftigere prossesor. Og foreløpige tester på atdet er en del å hente der på oppløsnings-siden.

Lenke til kommentar

Det er jo også et par andre steder vi vil se en utvilking - svakt AA filter (eller ingen). I stedet vil hindring av moire skje vha. prossesoren i kamera.

 

Hvis jeg husker rett, så har ikke M9 AA filter i det hele tatt. Olympus E-5 har et markant svakere AA filter enn tidligere 12MP brikker, kombinert med kraftigere prossesor. Og foreløpige tester på atdet er en del å hente der på oppløsnings-siden.

Jeg er tilhenger av Nyquist og tror at kamera uten AA-filter aldri vil bli normen. AA-filteret gjør at ting faller av noe opp mot halve samplingsfrekvensen - detaljer som for vanlige printstørrelser ikke har betydning. Men når man fjerner AA-filteret så kan det faktisk gi feil helt ned til "DC", hvor alle ser feilen.

 

Når først aliasing har oppstått så kan man ikke fjerne det - når scene A og scene B begge gir samme sensor output C, hvordan vite hvilken av de to (eller uendelig mange) som faktisk er rett? Man kan prøve å redusere feilen - på samme måte som man undertrykker synlig støy, men det gir også mulighet for (som støyfjerning) at man innfører nye artifakter.

 

Mer ideelle OLPF hadde vært en fin ting dog.

 

-k

Lenke til kommentar
Mnja.

 

Det er faktisk en del områder hvor utviklingen av halvlederteknologi er i ferd med å flate ut. Det har f.eks. skjedd relativt liten forbedring av ytelse per CPU-kjerne i x86-verdenen de siste 2-3 årene,

Ytelse pr kjerne er uinteressant for argumentet mitt. Om økt kvalitet i demosaic skjer på 1,2 eller 100 kjerner er uinteressant for brukeren så lenge det går fort og resultatet er bra.

og ytelsesforbedring kommer stort sett gjennom å øke antall kjerner som jobber i parallell. Det blir progressivt vanskeligere å krympe prosessene noe mer, og Moores lov har vel allerede blitt justert fra dobling av antall transistorer per 18 måneder til dobling per 24 måneder eller mer.

Det går i rykk og napp, og det har stadig vært dommedagsprofetier. Den generelle trenden er likevel ganske tydelig.

Effektivisering av signalbehandling og prosessering har en del å si for hvor mye ekstra funksjonalitet du klarer å stappe inn i et kamera, men det har lite praktisk betydning for kvaliteten på grunndataene du henter ut fra sensoren. Uansett, så har jeg liten tro på at det noensinne vil være bedre å la kameraet gjøre jobben med å etterprosessere dem enn å gjøre jobben på en mye større og kraftigere maskin med (i praksis) ubegrenset tid til rådighet.

Fordelen med å gjøre det i kamera (utenom brukervennlighet) må være at man får en tettere binding mellom ditt fysiske kamera og algoritmen. Hvorvidt det kan utnyttes gjenstår å se. Dersom algoritme-utviklingen flater ut og man ikke kommer på noen nye smarte (og kostbare) metoder så tipper jeg at man like gjerne kan gjøre det i kamera (gjerne på en ikke-destruktiv Lightroomsk måte som tar vare på både rådata og framkallingen)

 

-k

Lenke til kommentar

Den generelle trenden er likevel ganske tydelig.

Ja, og den trenden er at utviklingen går treigere og etter hvert flater ut.

 

Alle teknologier når et punkt hvor det ikke lenger er praktisk gjennomførbart å forbedre dem, og man enten må komme opp med noe nytt eller klare seg med det man har. Teknologioptimister har bare en tendens til å glemme alle de teknologiene som ikke lenger utvikles når de antar at ting kommer til å fortsette å forbedre seg.

Lenke til kommentar

Tror enda det er mye å hente.

  • Bayerfilteret dropper vel 2/3 av lyset tvert. Er spent på FoveonsSigmas nye.
  • Mikrolinser kan bli bedre, så vi kan ha optikk enda tettere på sensoren. Gamle ultravidvinkler funker dårlig på digital Leica. Blir mer og mer aktuelt med hus med kortere registeravstand.
  • AA-filteret kan nok justeres litt.
  • Pixel binning til video er p.t. teh suxxors.
  • Bare å sammenligne teoretisk maksimum med bioteknologi - lille optikken og sensoren i øyet er på mange måter overlegent dagens kameraer - og med "litt" færre linseelementer.
  • Mye å hente på dynamikk.

Endret av Trondster
Lenke til kommentar

Tror enda det er mye å hente.

Bayerfilteret dropper vel 2/3 av lyset tvert. Er spent på FoveonsSigmas nye.

Det er nærmere halvdelen (RGGB-fordelingen tilsvarer spektrumet til synlig lys ganske bra, men varierer med lysforhold). Og så langt så har i hvert fall ikke Foveon vist seg å imponere på lysfølsomhet. Det er selvsagt mye å hente hvis man kommer opp med en teknologi som klarer det, men så langt ser det ikke ut som vanlige SI-lysdioder er den teknologien.

 

[*] Mikrolinser kan bli bedre, så vi kan ha optikk enda tettere på sensoren. Gamle ultravidvinkler funker dårlig på digital Leica. Blir mer og mer aktuelt med hus med kortere registeravstand.

AA-filteret kan nok justeres litt.

At det er rom for forbedringer er det nok liten tvil om, men hvor mye det reelt sett er å vinne på det er en annen sak.

 

Pixel binning til video er p.t. teh suxxors.
Video generelt er det nok en del å gå på, men det er nok ikke trivielt. Hovedproblemet mistenker jeg er kjøling. Dedikerte videokameraer med tilsvarende store sensorer har ganske mye bedre kjøling enn det er plass til i et relativt kompakt speilrefleks eller speilløst kamera.

 

Bare å sammenligne teoretisk maksimum med bioteknologi - lille optikken og sensoren i øyet er på mange måter overlegent dagens kameraer - og med "litt" færre linseelementer.
Egentlig ikke. Øyet er ikke spesielt bra som sensor, men det foregår en del rimelig rå etterbehandlingen i sanntid.

 

Mye å hente på dynamikk.

Hvordan? Det er en ting å ønske at dynamikken er bedre, det er en annen ting å produsere brikker som faktisk leverer det. Også der ha utviklingen stort sett gått nedover siden D90, og så lenge man pusher på med mindre fotodioder på samme basisteknologi så er det vanskelig å gjøre ting bedre.
Lenke til kommentar

Sensorer er fremdeles en ung teknologi - la oss se når det har gått noen generasjoner til. Tror det er mye å hente her og der - spesielt på nye områder man ikke har tenkt påimplementert før - for eksempel tidsdimensjonen. Hva hvis man for eksempel deler opp eksponeringen i flere biter, og registrerer sensoravlesningene hver for seg. Som RED viser fram - mulighet for å dele opp hver frame i to eksponeringsbiter, med høy og lav ISO, for å få mer dynamikk. Hva med å dele opp eksponeringen i flere bilder, for å fjerne støy og for å få flere detaljer? Hva med et Bayerfilter som flimrer/veksler under eksponeringen? Omtrent som Hasselblad Multi-Shot, som kan ta fire etterfølgende bilder, med sensoren i fire posisjoner og dermed alle farger i hvert pixel?

 

Overrasker meg ikke om det skjer et kvantesprang eller to.

 

 

Men tilbake til trådens emne:

Er det ikke rett og slett at Leica er dyr på grunn av lavt volum, eksklusivitet og godt gammeldags håndverk, som jo er så dyrt i disse dager.

Endret av Trondster
Lenke til kommentar

"Rettferdiggjør?" Et merkelig spørsmål, svaret er jo logisk som med annen overpriset merkevare enten det gjelder klær, møbler, biler, båter osv osv. Sålenge man har et statusmerke og nok kunder som bare må ha merket så priser man som man vil, ellers ville det forretningsmessig være nokså stupid.

 

Tor

Lenke til kommentar

Sensorer er fremdeles en ung teknologi

Niks.

 

Sensorer basert på SI-dioder er en svært moden teknologi, der det er lite å hente i å forbedre basisteknologien.

 

Stort sett alle "mulighetene" du nevner er ikke forbedringer av sensoren. Det er triks for å komme rundt sensorens grunnleggende begrensninger.

 

(Og kvantesprang skjer det hele tiden når du tar bilder)

Lenke til kommentar

Stort sett alle "mulighetene" du nevner er ikke forbedringer av sensoren. Det er triks for å komme rundt sensorens grunnleggende begrensninger.

Og det er der jeg tror at de største forbedringene vil komme. Leamikk rundt en begrenset sensor som gjør at man tilsynelatende har en bedre sensor. Elitistene vil fnyse av det, men de mer åpensinnede kan risikere å ta bedre bilder enn før.

 

-k

Lenke til kommentar

Den generelle trenden er likevel ganske tydelig.

Ja, og den trenden er at utviklingen går treigere og etter hvert flater ut.

 

Alle teknologier når et punkt hvor det ikke lenger er praktisk gjennomførbart å forbedre dem, og man enten må komme opp med noe nytt eller klare seg med det man har. Teknologioptimister har bare en tendens til å glemme alle de teknologiene som ikke lenger utvikles når de antar at ting kommer til å fortsette å forbedre seg.

Jeg ser ikke på meg selv som "teknologi-optimist". Jeg er heller konservativ: trendene som har eksistert fram til nå vil sannsynligvis fortsette å eksistere med mindre det finnes gode grunner for at de ikke skal gjøre det.

 

Som jeg nevnte i innlegget mitt så er digitale kretser (og det som snurrer på dem) enestående ifht mye av det andre vi omgir oss med. Om noe så er jeg kanskje dermed "teknologi-pessimist": det meste utvikler seg frustrerende sakte.

http://en.wikipedia.org/wiki/Moore's_law

683px-Transistor_Count_and_Moore%27s_Law_-_2008.svg.png

Moore's law describes a long-term trend in the history of computing hardware. The number of transistors that can be placed inexpensively on an integrated circuit has doubled approximately every two years.[1] The trend has continued for more than half a century and is not expected to stop until 2015 or later.

 

The capabilities of many digital electronic devices are strongly linked to Moore's law: processing speed, memory capacity, sensors and even the number and size of pixels in digital cameras.[3] All of these are improving at (roughly) exponential rates as well.[4]

...

The law is named after Intel co-founder Gordon E. Moore, who described the trend in his 1965 paper.[7][8][9] The paper noted that number of components in integrated circuits had doubled every year from the invention of the integrated circuit in 1958 until 1965 and predicted that the trend would continue "for at least ten years".[10] His prediction has proved to be uncannily accurate, in part because the law is now used in the semiconductor industry to guide long-term planning and to set targets for research and development.[11] This fact would support an alternative view that the "law" unfolds as a self-fulfilling prophecy, where the goal set by the prediction charts the course for realized capability.

Synes du at denne kurven flater ut?

 

-k

Endret av knutinh
Lenke til kommentar

Sensorer er fremdeles en ung teknologi - la oss se når det har gått noen generasjoner til. Tror det er mye å hente her og der - spesielt på nye områder man ikke har tenkt påimplementert før - for eksempel tidsdimensjonen. Hva hvis man for eksempel deler opp eksponeringen i flere biter, og registrerer sensoravlesningene hver for seg. Som RED viser fram - mulighet for å dele opp hver frame i to eksponeringsbiter, med høy og lav ISO, for å få mer dynamikk. Hva med å dele opp eksponeringen i flere bilder, for å fjerne støy og for å få flere detaljer? Hva med et Bayerfilter som flimrer/veksler under eksponeringen? Omtrent som Hasselblad Multi-Shot, som kan ta fire etterfølgende bilder, med sensoren i fire posisjoner og dermed alle farger i hvert pixel?

Det du snakker om er å "multiplexe" inn mer informasjon ved å sette sammen flere (del-)bilder. Dette kan øke dynamikken, oppløsning, redusere støy, etc. Men det fungerer best for statiske motiver eller ting som er bortimot statisk.

 

-k

Lenke til kommentar

Foreslår du blar videre nedover til "Future trends"-overskriften.

 

Halvlederindustrien opererer allerede med en doblingstid på tre år, der den før var to. Så ja, utviklingen flater ut.

Du svarte ikke på spørsmålet mitt: flater kurven jeg viste deg ut i dine øyne? Skeptikere har preket Moores lovs død i 30 år og tatt feil, jeg tar deg ikke på alvor før vi kan se at det faktisk skjer.

 

-k

Lenke til kommentar

Du svarte ikke på spørsmålet mitt: flater kurven jeg viste deg ut i dine øyne?

Nei, men den kurven i seg selv sier heller ikke noe særlig. Og jeg må innrømme at jeg akkurat nå i hvert fall ikke gidder å grave rundt for å finne tall som transistortetthet, produksjonsteknikk, produksjonskostnad og energiforbruk for de nyere brikkene. Endret av Sutekh
Lenke til kommentar

 

Hvorvidt håndarbeid er "bedre" enn et samlebånd med roboter kan sikkert diskuteres, men hvis man lager veldig små serier med eksklusive produkter så gir det kanskje ikke mening å automatisere alt for mye?

 

-k

 

Tenkte mer på hva som gjøres for hånd. De fleste ting som lages trenger en litt håndarbeid for å sette ting sammen og QC...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...