Gå til innhold

Google utfordrer JPEG


Anbefalte innlegg

Videoannonse
Annonse

Jeg sjekket med Wikipedia nå og der står det at WebP er et åpent format. Noe jeg mener er en forutsetning for suksess.

 

Poenget med formatet er tydeligvis å erstatte jpeg som lossy komrpimeringsteknikk for å redusere filstørrelser. Men jeg kunne godt tenkt meg en åpen erstatter med større dynamisk omfang enn bare 8 bit per fargekanal og mulighet for både lossy og ikke-lossy, samt transparent.

Lenke til kommentar

Hva med JPEG XR? Det støtter både lossless og lossy, alpha channel og ekstra bitdybde for HDR-bilder. Microsoft eier patentene, men har visstnok lovet å ikke håndheve disse.

 

Om støtte dukker opp i browsere på alle plattformer, så er dette en bedre kandidat for neste-generasjon fotoformat. Sålenge Microsoft holder løftet sitt.

Lenke til kommentar

Det med 8 bit/kanal for web er litt som høna og egget. Brukes det 8 bit fordi skjermer bare støtter 8 bit eller støtter skjermer bare 8 bit fordi vanlige filformater i dag ikke støtter mer enn 8 bit? Et format som skal vare 20+ år bør definitivt ha mulighet for bedre fargedybde.

 

Det har vært (minst) et par store forsøk på å erstatte jpeg tidligere. Det første store forsøket var nok det proprietære, patenterte og lisensbaserte formatet jpeg 2000. Det er stort sett fiasko. Et annet stort forsøk er Microsofts Jpeg XR (tidligere HD photo). Det har visstnok en åpen lisens, " Microsofts Open Specification Promise", og er patentert av Microsoft.

Lenke til kommentar

Det med 8 bit/kanal for web er litt som høna og egget. Brukes det 8 bit fordi skjermer bare støtter 8 bit eller støtter skjermer bare 8 bit fordi vanlige filformater i dag ikke støtter mer enn 8 bit? Et format som skal vare 20+ år bør definitivt ha mulighet for bedre fargedybde.

 

Nesten samtlige TN panel bruker i dag 6-bit per farge.

 

De fleste IPS panel har 8-bit.

 

P-IPS (professional IPS) har 10-bit.

 

Personlig tror jeg det for weblesing er MYE mer å tjene på generelt utlegg av sidene og tekstbruk (font) før man faktisk vil begynne å trenge høyere dynamisk dybde i bildene. Dette filformatet er jo også som nevnt utviklet med tanke på å redusere fil-størrelse. Siden websider brukes av mange er det smart å redusere båndbredden til det som er nødvendig for "ok" bruk. Skal man alltid gå for "top-notch" blir utviklingen og også utstyrskostnaden himmelhøy.

 

Nærmest ingen vil kjøpe mobiltelefoner som støtter taleoverføring i HIFI.

 

Jeg vil anta at 97% av de som leser f.eks nettaviser vil sitte på TN-paneler.

Lenke til kommentar

Ideen med jpeg2000 var bedre. Nemlig at man kun behøvede at læse så meget af filen som den opløsning man havde brug for.

 

Sagt lidt løst:

Først en thumb-nail.

Derefter ekstra data for at splitte hver pixels i flere.

Det kunne så gentages så disse pixels igen kunne splittes.

Eventuelt i mange 'lag'.

(det er noget mere smart end beskrevet her, men for princippet...)

 

Altså en idé hvor man med SAMME fil havde billedet i fuld opløsning og i de lavere opløsninger man måtte have brug for.

Men lavet så snedigt at man fx til web-brug i lille vindue kunne nøjes med at hente en lille del af filen.

 

Jeg ved ikke om der findes en eksplicit lossless standard af jpeg2000, altså at man har så mange lag at alle pixels er 100% matchende original-pixel.

 

En ny standard BØR basere sig på den tankegang, og selvfølgelig være åben for et i princippet vilkårligt antal bits per pixel, for at være både 'fremtidssikret' og brugbar til webbrowsere - ville især gavne devices med lav båndbredde og skærme med usel opløsning som mobiler (og ibad med kloner).

  • Liker 1
Lenke til kommentar

Hadde vært flott med et bildeformat som var både kompakt, støttet gjennomsiktighet og animasjon. JPEG, PNG og GIF i ett på en måte. :)

Problemet er at man da blander sammen lossy og lossless bildeformater, som egentlig er to helt forskjellige ting. Kanskje man kunne lagd et bildeformat som støtter både lossy og lossless informasjon, men spørs om ikke det vil gjøre forvirringen større enn nytten man får av det. :)

Lenke til kommentar

Ideen med jpeg2000 var bedre. Nemlig at man kun behøvede at læse så meget af filen som den opløsning man havde brug for.

Dette er bare ett av mange elementer i jpg2k.

 

Det du snakker om er muligheten for å laste ned en stor fil i mindre blokker, og å fremdeles få meningsfulle bilder selv om man bare ser på en brøkdel av den fulle fila. JPEG, PNG og JPEG2000 støtter denne funksjonen, og "ingen" bruker den. Grunnen kan man bare spekulere i, men det tyder for meg på at det ikke har noe for seg å inkludere funksjonen i enda et nytt format.

 

Vi som har levd en stund vet at man skjelden får noe gratis. Funksjonen du etterspør fører til større kompleksitet (hardware-krav og utvikler-timer), og dårligere kompresjon.

Jeg ved ikke om der findes en eksplicit lossless standard af jpeg2000, altså at man har så mange lag at alle pixels er 100% matchende original-pixel.

Både JPEG og JPEG2000 har lossless annexer såvidt jeg vet, men de avviker såpass mye fra den lossy standarden at det i praksis er en sidegren.

 

Spørsmålet er hva man skal med en ny lossy bilde-standard. Hva er galt med JPEG?

 

-k

 

Problemet er at man da blander sammen lossy og lossless bildeformater, som egentlig er to helt forskjellige ting. Kanskje man kunne lagd et bildeformat som støtter både lossy og lossless informasjon, men spørs om ikke det vil gjøre forvirringen større enn nytten man får av det. :)

MNG støtter PNG og JNG. JNG er for alle gode formål JPEG puttet inn i en container. Altså er MNG (sett fra brukeren) en blanding av lossy (naturlige bilder) og lossless (vektor-grafikk/redusert fargekart/...)

 

-k

Lenke til kommentar
Men jeg kunne godt tenkt meg en åpen erstatter med større dynamisk omfang enn bare 8 bit per fargekanal

Som andre har sagt: dagens paneler er vanligvis 6bit. Dagens kamera er ikke så innmari mye mer enn 8 bit dersom man tar hensyn til gamma (14 bit lineært tilsvarer 9 bit med gamma. Få kamera har mer enn 14 bit). I en _lossy_ codec så vil man kaste irrelevant informasjon først, derfor vil de minst signifikante bittene kjapt bli fjernet.

 

-k

Lenke til kommentar

Artikkelen kunne godt tatt med at det er et åpen format, som er kanskje det viktigste.

 

Men det er bra at det skjer noe på denne fronten, det har vært fint lite utvikling over lengre tid nå. Men uansett så vil jeg hevde at størrelsen på bilder er et av de mindre problemene på nettsider i dag, mens responstid til servere og møkk som flash gjør at ting går tregt. Det som vil ha mye mer innvirkning for nettsider er om de henter filer fra ferrest mulig servere og så få filer som mulig, forutsatt at de ikke blir for store.

 

Jeg må forøvrig si meg enig med Simen1, støtte for flere enn 8 bits per kanal, samt alfakanal er et savn. Selv om de ferreste i dag har mer enn 8 bits per kanal på skjermen sin, så vil det bli mer utbredt i fremtiden, og et fremtidsrettet format bør ha støtte for det. Jeg driver selv og vurderer om mitt eget materiale skal produseres i DeepColor, slik at det blir mer anvendbart i fremtiden.

Lenke til kommentar
Det som vil ha mye mer innvirkning for nettsider er om de henter filer fra ferrest mulig servere og så få filer som mulig, forutsatt at de ikke blir for store.

Dette løses vel med komprimering i dag? Eller er det mange som sender sidene som en rekke filer i dag? Kanskje et slags komprimert container-format for bilder hadde vært noe? F.eks at én fil inneholder alle bildene, alle ankerpunkter og alle skaleringsfaktorer? Et format som serveren kan sette sammen kjapt og enkelt på forespørsel.

Lenke til kommentar

Poenget er nok fortsatt at dersom man ønsker høyere dynamisk området så er det først og fremst utstyret man fanger bildene med som må forbedres. Det er ytterst få av bildene som publiseres som i dag lider av jpeg formatets begrensning i bare 8-bit pr kanal.

 

Samtidig kan man jo som nevnt spørre seg om hva som i det hele tatt er vitsen med høyere dynamisk område og lossy komprimering. Det første som kuttes for å få ned filstørrelsen er jo akkurat de minst viktige bittene, så der ryker hele det dynamiske området. Hele poenget med komprimerende bildeformater er å kunne fjerne mest mulig informasjon fra bildet uten å fjerne "innholdet". Innholdet til et bilde er, med mindre det er et fotografisk kunstverk, selve objektet det er tatt bilde av.

 

Jeg er helt enig i at formater som støtter et høyere dynamisk området og bedre kvalitet kan være ønskelig, men det er ikke det man klarer å selge inn på markedet, spesielt ikke til de som driver med publisering på nettet. Båndbredde koster, kan en tilbyder (f.eks en nettavis) spare 35% båndbredde uten at bildene blir merkbart dårligere er dette helt klart et pluss. Derimot å øke kvaliteten på bildene og samtidig øke behovet for båndbredde med gjerne det dobbelte om ikke mer er totalt uaktuelt (dersom det ikke er et kunstfotografisk nettsted).

 

En mulighet er jo som dere nevner å ha forskjellige sett med filer, både høy og lav kvalitet, alt til sitt bruk. Men tilbyderen må på en eller annen måte kunne styre hvem som får hvilken kvalitet.

 

Samtidig må en huske at som med alt digitalt innhold er ikke verken antall bit eller oppløsning direkte det samme som kvalitet.

 

Fremtiden er vanskelig å spå, og ofte går utviklingen mot det som dekker et behov. Bare se på lyd. Vi har på lyd i de siste 20-år i hovedsak hatt en markant nedgang kvalitet når det gjelder det digitale formatet. Mens cd-en før var enerådene er det nå mp3 filer i 128 bit eventuelt 256 bit, som er gjengs. Flere har også her prøvd seg med format som tilbyr betydelig bedre kvalitet, men så lenge disse formatene ikke gir noen fordel til den vanlige forbruker så klarer de heller ikke å slå ut mp3. Det samme tror jeg vil komme til å gjelde for jpeg. Høykvalitets formater klarer ikke å slå jpeg på vanlig bruk, derfor gjør kanskje google det riktige ved å satse på et format som kan tilby tilnærmet samme kvalitet til mindre båndbredde.

Endret av Thorsen
Lenke til kommentar

Neste alle lossy kompresjonsalgoritmer gir jo muligheten for flere nivå av kvalitet, finnes det i det hele tatt noen som ikke gjør det? (JPEG gjør det jo også) Feks er det ingen ulempe å støtte flerkanal for en lossy algoritme, enn sålenge den fortsatt støtter stereo, og stereo-musikk av en gitt kvalitet tar samme plass. Det er jo ikke noe værre enn dette for bildekomprimering heller. Og hvilke musikkformater er det som gir en betydlig bedre kvalitet enn mp3?

 

AtW

Lenke til kommentar
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...