ATWindsor Skrevet 24. september 2017 Del Skrevet 24. september 2017 Vi er uenige om når en teknologi skal sies å "være her", og minst en mobil har denne funksjonen: Den de brukte i demoen . Nå har faktisk iPhone 8/X liknende funksjonalitet hvor de bruker maskinlæring til å velge optimale etterbehandlingsparametere til potrettbilder, så så uferdig kan ikke denne teknologien sies å være. Og så: focus stacking har vært tilgjengelig på iPhone siden 2015. Live composite er vel essensielt det samme som å ta mange bilder og så midle dem etterpå? Det støttes på iPhone og Android. Hi-res og pro capture har du vel neppe støtte for. De andre tingene er jeg faktisk usikker på, men ville ikke overraske meg om de er tilgjengelige et sted. Jeg sa svært få eller ingen, live composite er ikke det samme som å ta mange bilder og midle det nei, dvs på et vis gjør det det (altså tar mange bilder og lager "noe nytt"), men det gjør noe annet med resultatet. Poenget er at man like fint kan finne funksjoner på et fotoapparat, som en spesifikk mobil ikke har, akkurat som du har funnet en funksjon på en telefon (pano) som et spesifikt kamera ikke har. AtW "i liten grad" er et velkjent weazel-ord som gjør at du helgraderer deg, og det blir litt meningsløst å diskutere mot siden det vil bero på definisjonen av "i liten grad". Det du skrev kan teknisk sett være riktig, avhengig av definisjonen av "i liten grad", men det gjør det ikke mindre riktig at et par av tingene du beskrev er tilgjenglig på mobiltelefoner. Nøyaktig hva er forskjellen på sluttresultatet ved å bruke LiveComp og ta en serie av bilder som man etterpå tar gjennomsnittet av? Begge deler kan gjøres automatisk i telefonen eller kameraet. Og jeg har strengt tatt funnet flere funksjoner enn panorama Hva mener du jeg skulle gjort da? Skrevet ingen, som er feil? Telt opp alle telefoner i verden og sjekket akkurat hvor mange det var? Forskjellen er at livecomp brukes til å eksponere deler av bildet på forskjellige måter fra hverandre. Ja og? Poenget er akkurat det samme. Bare fordi man kan finne funksjoner en telefon har, som ikke alle kamera har, betyr ikke at kamera ligger langt bak. AtW Lenke til kommentar
Gjest Slettet+5132 Skrevet 24. september 2017 Del Skrevet 24. september 2017 Hva mener du jeg skulle gjort da? Skrevet ingen, som er feil? Telt opp alle telefoner i verden og sjekket akkurat hvor mange det var? Du kunne for eksempel begynt med å ikke skrive "Jeg sa svært få eller ingen", som antyder at jeg sa du tok feil, noe jeg aldri skrev Du kunne også laget to forskjellige lister, en med egenskaper som ikke var støttet overhodet, og en som du mente kun var støttet i liten grad. Slik den er skrevet nå gir lite klarhet. Forskjellen er at livecomp brukes til å eksponere deler av bildet på forskjellige måter fra hverandre. Du kan da fint ta bilder med forsjkellige eksponering og så midle dem sammen, er vel det jeg antar olympus gjør i kameraet uansett. Ja og? Poenget er akkurat det samme. Bare fordi man kan finne funksjoner en telefon har, som ikke alle kamera har, betyr ikke at kamera ligger langt bak. AtW Men det er jo her problemet ligger. De ligger kanskje ikke "langt bak", men poenget er at et kamera, hvis hovedoppgave er å produsere gode bilder, ligger bak mobiltelefoner i etterbehandling. Det er ting som er støttet i enkelte kamera som ikke er støttet i noen mobiltelefon, men når det kommer til etterbehandling, er det ikke konkurranse engang. Der har smarttelefoner Lightroom, Polarr, Photoshop, Snapseed, og andre. Lenke til kommentar
ATWindsor Skrevet 24. september 2017 Del Skrevet 24. september 2017 Hva mener du jeg skulle gjort da? Skrevet ingen, som er feil? Telt opp alle telefoner i verden og sjekket akkurat hvor mange det var? Du kunne for eksempel begynt med å ikke skrive "Jeg sa svært få eller ingen", som antyder at jeg sa du tok feil, noe jeg aldri skrev Du kunne også laget to forskjellige lister, en med egenskaper som ikke var støttet overhodet, og en som du mente kun var støttet i liten grad. Slik den er skrevet nå gir lite klarhet. Forskjellen er at livecomp brukes til å eksponere deler av bildet på forskjellige måter fra hverandre. Du kan da fint ta bilder med forsjkellige eksponering og så midle dem sammen, er vel det jeg antar olympus gjør i kameraet uansett. Ja og? Poenget er akkurat det samme. Bare fordi man kan finne funksjoner en telefon har, som ikke alle kamera har, betyr ikke at kamera ligger langt bak. AtW Men det er jo her problemet ligger. De ligger kanskje ikke "langt bak", men poenget er at et kamera, hvis hovedoppgave er å produsere gode bilder, ligger bak mobiltelefoner i etterbehandling. Det er ting som er støttet i enkelte kamera som ikke er støttet i noen mobiltelefon, men når det kommer til etterbehandling, er det ikke konkurranse engang. Der har smarttelefoner Lightroom, Polarr, Photoshop, Snapseed, og andre. Nei, du bare framstilte det som eksempler motbeviste min påstand, noe det ikke gjør. Ja, det kan du, men det er ikke det funksjonen gjør direkte, og det hjelper ikke at man kan gjøre det, om telefoner ikke gjør det. Jeg er ikke enig i at det ligger bak, på "direkte etterbehandling" som er det algoritmen du snakket om handler om, joda, en telefon kan kjøre program, så de er har dedikerte program til etterbehandling. Det er sant, men det er i mine øyne ikke der problemet ligger, det er ikke mangelen på fullverdige etterbedhandlingsprogram som er svakheten til normale kamera. AtW Lenke til kommentar
Gjest Slettet+5132 Skrevet 24. september 2017 Del Skrevet 24. september 2017 Hva mener du jeg skulle gjort da? Skrevet ingen, som er feil? Telt opp alle telefoner i verden og sjekket akkurat hvor mange det var? Du kunne for eksempel begynt med å ikke skrive "Jeg sa svært få eller ingen", som antyder at jeg sa du tok feil, noe jeg aldri skrev Du kunne også laget to forskjellige lister, en med egenskaper som ikke var støttet overhodet, og en som du mente kun var støttet i liten grad. Slik den er skrevet nå gir lite klarhet. Forskjellen er at livecomp brukes til å eksponere deler av bildet på forskjellige måter fra hverandre.Du kan da fint ta bilder med forsjkellige eksponering og så midle dem sammen, er vel det jeg antar olympus gjør i kameraet uansett. Ja og? Poenget er akkurat det samme. Bare fordi man kan finne funksjoner en telefon har, som ikke alle kamera har, betyr ikke at kamera ligger langt bak. AtW Men det er jo her problemet ligger. De ligger kanskje ikke "langt bak", men poenget er at et kamera, hvis hovedoppgave er å produsere gode bilder, ligger bak mobiltelefoner i etterbehandling. Det er ting som er støttet i enkelte kamera som ikke er støttet i noen mobiltelefon, men når det kommer til etterbehandling, er det ikke konkurranse engang. Der har smarttelefoner Lightroom, Polarr, Photoshop, Snapseed, og andre. Nei, du bare framstilte det som eksempler motbeviste min påstand, noe det ikke gjør. Nope, egentlig ikke. Du får lese det igjen. Ja, det kan du, men det er ikke det funksjonen gjør direkte, og det hjelper ikke at man kan gjøre det, om telefoner ikke gjør det.Det er vel akkurat det funksjonen gjør direkte, bare bak scenen. Jeg er ikke enig i at det ligger bak, på "direkte etterbehandling" som er det algoritmen du snakket om handler om, joda, en telefon kan kjøre program, så de er har dedikerte program til etterbehandling. Det er sant, men det er i mine øyne ikke der problemet ligger, det er ikke mangelen på fullverdige etterbedhandlingsprogram som er svakheten til normale kamera. AtW Algoritmen bruker etterbehandlingsfunksjoner som ikke er tilgjenglig på kameraene, det er slik den er lagt opp. De bruker blant annet lokal endring i eksponering uten HDR i deler av bildet, det er ikke tilgjengelig på noe kamera som etterbehandling. Lenke til kommentar
Gjest Slettet+5132 Skrevet 24. september 2017 Del Skrevet 24. september 2017 (endret) Nå ser det ut som om noen har gjort maskinlæring mulig også på tradisjonell kameraer, via en KickStarter Så får vi se om de blir vellykka. Dog ikke helt sammenliknbart, men fortsatt interessant. Endret 24. september 2017 av Slettet+5132 Lenke til kommentar
Lunaris Skrevet 25. september 2017 Del Skrevet 25. september 2017 Teknologien er her nå. Kildekoden er ute på nett uten restriktiv lisens. CPUen man trenger er "hyllevare". Kameraprodusentene kan sannsynligvis gå til HiSilicon for å kjøpe den samme tensorprosessoren som Huawai bruker i sin "AI-phone". Det virker som en veldig lavthengende frukt for alle kameraprodusenter, men jeg blir overrasket om vi kommer til å se dette i kameramodeller de neste to-tre årene. Vi får vente og se HiSilicon har ikke utviklet dem 100% selv engang. De samarbeider med et annet selskap som holdt på med dette. Noe som tilsier at det kan ikke være så vanskelig å få det til. Men du ser jo innenfor teknologi så har japanske selskaper generelt slitt med overgangen til nyere tider, og de aller fleste selskaper har falt rimelig mye. Og det er japanske selskaper som er dominante innenfor kamera. Mest kjente her er jo Kodak. De har jo den fordelen at vi alltid vil trenge sensorer, så Sony selger jo f.eks masse sensorer til mobiler. Men for markedet ellers så gjør de ikke mye for å få folk til å ville velge det. Du skrev at dette er teknologi som ikke er i produkter enda AtW, men det blir jo brukt og er tilgjengelig kommersielt i produkter allerede. I datasentere. Og hvorfor slår et "oppstart" SoC selskap (HiSilicon) samtlige kameraprodusenter til en krets som er svært effektiv for behandling av bilder? Det er klart at de henger etter. Og ja, en slik krets er oppgitt av google til å være 30-80 ganger bedre ytelse/W i forhold til vanlig CPU, så det er en enorm fordel over en tradisjonell CPU. Lenke til kommentar
Gjest Slettet+5132 Skrevet 25. september 2017 Del Skrevet 25. september 2017 Det som er ganske avslørende er at nesten alle forfatterne av maskinlæringsartikkelen har stillinger hos Google. Google har faktisk en egen forskningsgruppe for "computational photography", og de har også tidligere oppnådd ting som ikke var tilgjengelig i vanlige kameraer. Apple har også vist at de spytter mye penger inn i maskinlæring og fotografi med deres nye potrettmodus. Her står derimot kameraprodusentene helt på sidelinja. Jeg har fortsatt til gode å se noe forskning fra dem, ei heller patenter i denne retningen, og det virker ikke som om dette er noe de fokuserer på i det hele tatt? Det eneste unntaket er at Canon og et par andre prøver å selge kameraene inn til Computer Vision, men det er da noe annet. I mellomtida har uavhengige forskere klart å få bedre støyfjerningsalgoritmer via maskinlæring, det finnes kickstarterprosjekter som velger de beste kamerainnstillingene for deg basert på ML, og nå denne etterbehandlingen. Jeg mener at ML har sine begrensninger, men til fotografi passer det helt perfekt. Lenke til kommentar
Anbefalte innlegg