Gå til innhold

Googles nye åpen kildekode-algoritme gir vesentlig mindre JPEG-filer


Anbefalte innlegg

Videoannonse
Annonse

Det er ikke åpen kildekode som er bra med Guetzli-algoritmen, da "alle" kan reimplementere denne algoritmen. Det som er bra er at Guetzli ikke er belastet med begrensede patenter, slik som GIF sin LZW-strid som gikk ut i 2003.

 

Å kalle det for "åpen kildekode" er egentlig greit nok, men det sier egentlig ikke hva man ønsker å få frem når algoritmen er dokumentert. "Fri programvare" hadde fått frem poenget, da det antyder en programvarelisens som forbyr begrenset patententering, men jeg hadde foretrukket "Uhemmet av patenter".

Endret av Gavekort
  • Liker 1
Lenke til kommentar

ser opg ser.. de kommer vel ann på øynene som ser (kumme ikke motstå) spørsmålet er hat den nye algoritmen mer eller mindre datatap for samme fil størrelse (komprimerings artefakter etc)? Hvorfor fokuser alltid folk på mest mulig komprimering, både bånbredde å lagring er forholdvis billig eller tar jeg feil?

Lenke til kommentar
Gjest Slettet+987123849734

ser opg ser.. de kommer vel ann på øynene som ser (kumme ikke motstå) spørsmålet er hat den nye algoritmen mer eller mindre datatap for samme fil størrelse (komprimerings artefakter etc)? Hvorfor fokuser alltid folk på mest mulig komprimering, både bånbredde å lagring er forholdvis billig eller tar jeg feil?

 

Det er forholdsvis billig med lagring og båndbredde, men i den størrelsen google operer på så blir det nok en del penger ut av det (lagring av alle bilder de finner på nett) da er 30% redusert størrelse uten kvalitetstap penger spart. Det å gjøre programvaren tilgjengelig for alle er jo bare et pluss for dem, da slipper de å bruke sin datakraft på å komprimere bilder som allerede er komprimert av andre - som ikke nødvendigvis har særlig mye å tjene på det, bortsett fra at det er "fresht og nytt"

Lenke til kommentar

ser opg ser.. de kommer vel ann på øynene som ser (kumme ikke motstå) spørsmålet er hat den nye algoritmen mer eller mindre datatap for samme fil størrelse (komprimerings artefakter etc)? Hvorfor fokuser alltid folk på mest mulig komprimering, både bånbredde å lagring er forholdvis billig eller tar jeg feil?

 

Målet med denne algoritmen later til å være enten:

1. Bedre kvalitet ved samme filstørrelse

2. Mindre filstørrelse ved samme kvalitet

 

-k

  • Liker 1
Lenke til kommentar

For de som ikke vil skru ned Jpeg-kvaliteten i vanlig komprimering så finnes også JPEGmini (google det for link). Denne beholder nesten 1:1 kvalitet på bildet i tillegg til å redusere filstørrelsen betraktelig (opp til 80% reduksjon!). Trodde først det var en spøk i.o.m hvordan Jpeg er designet, men mine egne tester viser nesten null differanse når alle pixlene når nytt bilde kjøres invers opp mot det gamle. Har du store bildebibliotek kan du spare veldig mye plass. Dette er betalvare da på €35 for standalone versjon, men den kjører også i trail med full funksjonalitet for et begrenset antall bilder.

 

Edit: JPEGmini er ikke perfekt 1:1 etter Emancipate's nylige test. Det er mulig å forsterke opp støyen så det viser at det er litt lossy som normalt ligger under radaren.

Endret av vidor
Lenke til kommentar

Nei, den beholder ikke alle pikselene like. http://www.jpegmini.com/main/technology

 

Edit: Jeg lastet ned et eksempel fra forsiden deres. Jeg zoomet inn (edit: til 100%), og jeg mener at jeg så forskjell. Så åpnet jeg begge i GIMP, la de over hverandre, valgte difference på det øverste, merge down, og deretter brightness and contrast, og satte brightness på 126 og contrast på max. Et utsnitt av resultatet kan sees under (jeg får ikke lastet opp en 6,4mb png-fil). Alle pikslene som ikke er svarte, er endret fra originalbildet (som vel å merke ikke er en lossy fil, men en jpeg fil, så der var det allerede data tapt).

 

quKqUrt.png

Endret av Emancipate
Lenke til kommentar

 

ser opg ser.. de kommer vel ann på øynene som ser (kumme ikke motstå) spørsmålet er hat den nye algoritmen mer eller mindre datatap for samme fil størrelse (komprimerings artefakter etc)? Hvorfor fokuser alltid folk på mest mulig komprimering, både bånbredde å lagring er forholdvis billig eller tar jeg feil?

 

Målet med denne algoritmen later til å være enten:

1. Bedre kvalitet ved samme filstørrelse

2. Mindre filstørrelse ved samme kvalitet

 

-k

Så samme mål som H.265 HEVC da :) det er jo en bra ting

  • Liker 1
Lenke til kommentar

 

Jobber du ofte med transparente JPG-bilder, da? ;-)

 

Gjennomsiktighet er et must for bilder mot f.eks. web. Håpløst å innføre et nytt format som ikke støtter dette, selv om jpeg før ikke har hatt støtte for dette.

Det er ikke innført et nytt format. Det er innført en ny komprimeringsalgoritme for JPEG. De som bruker JPEG vil altså dra nytte av det.

  • Liker 1
Lenke til kommentar

Alle pikslene som ikke er svarte, er endret fra originalbildet (som vel å merke ikke er en lossy fil, men en jpeg fil, så der var det allerede data tapt).

Det ante meg at dette måtte være tilfelle. Perseptuelt i likhet med Guetzli, mao. Interessant å teste dem opp mot hverandre, da det er tatt ut en del patenter som brukes i JPEGmini.

  • Liker 1
Lenke til kommentar

Foholdsvis billig betyr ikke gratis. 30% forskjell er en veldig stor forbedring, gitt at filene faktisk er objektivt like bra komprimert, og ikke bare "ser like bra ut" for utrente øyne.

Lossy koding handler om å lever subjektivt "godt" output for en gitt bitrate.

 

Hvis denne algoritmen f.eks .gir bilder som "ser like bra ut som vanlig JPEG ved 70% av bitraten" eller "ser signifikant bedre ut enn vanlig JPEG ved samme bitraten" så er det et framskritt.

 

Hvorvidt dette framskrittet er reelt, og om det verdt betydelig regnetid i enkoder er et åpent spørsmål.

 

-k

Lenke til kommentar

ser opg ser.. de kommer vel ann på øynene som ser (kumme ikke motstå) spørsmålet er hat den nye algoritmen mer eller mindre datatap for samme fil størrelse (komprimerings artefakter etc)? Hvorfor fokuser alltid folk på mest mulig komprimering, både bånbredde å lagring er forholdvis billig eller tar jeg feil?

 

du tar feil, ok litt vel direkte/spydig av meg :)

 

Å spare 35% har nok en viss betydning. Google sin unlimited photo cloud trenger plutselig 35% mindre plass, noe de sikkert vil spare betydelig på. En del steder er mobilnettet ganske elendig, f.eks. deler av JFK flyplass hvor datahastigheten er så treg at 35% mindre databruk nok ville være en fordel.

Lenke til kommentar
  • 3 uker senere...

Etter mine tester vinner JPEGmini med god margin. MYE kjappere, mer kompatibel output mht fargeprofiler der Guetzli gjør veldig rare ting. Bedre kompimering enn Guetzli på tilnærmet perfekt bildekvalitet hvor du heller ikke trenger å spesifisere JPEG kvalitetsgrad på JPEGmini, mens du må gjøre det på Guetzli.

Guetzli bruker bruteforce utpreget kombinatorikk og burde sånn sett ha en edge etter forbrukte CPU-sykler vs bildekvalitet, men innsatsen ser ikke ut til å være verd det.

Endret av vidor
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...