Kurt Lekanger Skrevet 18. mars 2017 Del Skrevet 18. mars 2017 Googles nye åpen kildekode-algoritme gir vesentlig mindre JPEG-filer 1 Lenke til kommentar
Tore Aurstad Skrevet 18. mars 2017 Del Skrevet 18. mars 2017 Guetzli støtter ikke gjennomsiktighet. Det vil legge en svart bakgrunn på gjennomsiktige bilder. Kan brukes på både JPEG og Png bilder. Repository fritt tilgjengelig på Github. 1 Lenke til kommentar
qualbeen Skrevet 18. mars 2017 Del Skrevet 18. mars 2017 Jobber du ofte med transparente JPG-bilder, da? ;-) 6 Lenke til kommentar
Gavekort Skrevet 18. mars 2017 Del Skrevet 18. mars 2017 (endret) Det er ikke åpen kildekode som er bra med Guetzli-algoritmen, da "alle" kan reimplementere denne algoritmen. Det som er bra er at Guetzli ikke er belastet med begrensede patenter, slik som GIF sin LZW-strid som gikk ut i 2003. Å kalle det for "åpen kildekode" er egentlig greit nok, men det sier egentlig ikke hva man ønsker å få frem når algoritmen er dokumentert. "Fri programvare" hadde fått frem poenget, da det antyder en programvarelisens som forbyr begrenset patententering, men jeg hadde foretrukket "Uhemmet av patenter". Endret 18. mars 2017 av Gavekort 1 Lenke til kommentar
Bjarne Nilsson Skrevet 18. mars 2017 Del Skrevet 18. mars 2017 ser opg ser.. de kommer vel ann på øynene som ser (kumme ikke motstå) spørsmålet er hat den nye algoritmen mer eller mindre datatap for samme fil størrelse (komprimerings artefakter etc)? Hvorfor fokuser alltid folk på mest mulig komprimering, både bånbredde å lagring er forholdvis billig eller tar jeg feil? Lenke til kommentar
Gjest Slettet+987123849734 Skrevet 18. mars 2017 Del Skrevet 18. mars 2017 ser opg ser.. de kommer vel ann på øynene som ser (kumme ikke motstå) spørsmålet er hat den nye algoritmen mer eller mindre datatap for samme fil størrelse (komprimerings artefakter etc)? Hvorfor fokuser alltid folk på mest mulig komprimering, både bånbredde å lagring er forholdvis billig eller tar jeg feil? Det er forholdsvis billig med lagring og båndbredde, men i den størrelsen google operer på så blir det nok en del penger ut av det (lagring av alle bilder de finner på nett) da er 30% redusert størrelse uten kvalitetstap penger spart. Det å gjøre programvaren tilgjengelig for alle er jo bare et pluss for dem, da slipper de å bruke sin datakraft på å komprimere bilder som allerede er komprimert av andre - som ikke nødvendigvis har særlig mye å tjene på det, bortsett fra at det er "fresht og nytt" Lenke til kommentar
knutinh Skrevet 18. mars 2017 Del Skrevet 18. mars 2017 ser opg ser.. de kommer vel ann på øynene som ser (kumme ikke motstå) spørsmålet er hat den nye algoritmen mer eller mindre datatap for samme fil størrelse (komprimerings artefakter etc)? Hvorfor fokuser alltid folk på mest mulig komprimering, både bånbredde å lagring er forholdvis billig eller tar jeg feil? Målet med denne algoritmen later til å være enten:1. Bedre kvalitet ved samme filstørrelse 2. Mindre filstørrelse ved samme kvalitet -k 1 Lenke til kommentar
Emancipate Skrevet 18. mars 2017 Del Skrevet 18. mars 2017 Foholdsvis billig betyr ikke gratis. 30% forskjell er en veldig stor forbedring, gitt at filene faktisk er objektivt like bra komprimert, og ikke bare "ser like bra ut" for utrente øyne. 2 Lenke til kommentar
vidor Skrevet 19. mars 2017 Del Skrevet 19. mars 2017 (endret) For de som ikke vil skru ned Jpeg-kvaliteten i vanlig komprimering så finnes også JPEGmini (google det for link). Denne beholder nesten 1:1 kvalitet på bildet i tillegg til å redusere filstørrelsen betraktelig (opp til 80% reduksjon!). Trodde først det var en spøk i.o.m hvordan Jpeg er designet, men mine egne tester viser nesten null differanse når alle pixlene når nytt bilde kjøres invers opp mot det gamle. Har du store bildebibliotek kan du spare veldig mye plass. Dette er betalvare da på €35 for standalone versjon, men den kjører også i trail med full funksjonalitet for et begrenset antall bilder. Edit: JPEGmini er ikke perfekt 1:1 etter Emancipate's nylige test. Det er mulig å forsterke opp støyen så det viser at det er litt lossy som normalt ligger under radaren. Endret 20. mars 2017 av vidor Lenke til kommentar
Emancipate Skrevet 19. mars 2017 Del Skrevet 19. mars 2017 (endret) Nei, den beholder ikke alle pikselene like. http://www.jpegmini.com/main/technology Edit: Jeg lastet ned et eksempel fra forsiden deres. Jeg zoomet inn (edit: til 100%), og jeg mener at jeg så forskjell. Så åpnet jeg begge i GIMP, la de over hverandre, valgte difference på det øverste, merge down, og deretter brightness and contrast, og satte brightness på 126 og contrast på max. Et utsnitt av resultatet kan sees under (jeg får ikke lastet opp en 6,4mb png-fil). Alle pikslene som ikke er svarte, er endret fra originalbildet (som vel å merke ikke er en lossy fil, men en jpeg fil, så der var det allerede data tapt). Endret 19. mars 2017 av Emancipate Lenke til kommentar
Gravitass Skrevet 19. mars 2017 Del Skrevet 19. mars 2017 ser opg ser.. de kommer vel ann på øynene som ser (kumme ikke motstå) spørsmålet er hat den nye algoritmen mer eller mindre datatap for samme fil størrelse (komprimerings artefakter etc)? Hvorfor fokuser alltid folk på mest mulig komprimering, både bånbredde å lagring er forholdvis billig eller tar jeg feil? Målet med denne algoritmen later til å være enten:1. Bedre kvalitet ved samme filstørrelse 2. Mindre filstørrelse ved samme kvalitet -k Så samme mål som H.265 HEVC da det er jo en bra ting 1 Lenke til kommentar
Happydaydreamer669 Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Jobber du ofte med transparente JPG-bilder, da? ;-) Gjennomsiktighet er et must for bilder mot f.eks. web. Håpløst å innføre et nytt format som ikke støtter dette, selv om jpeg før ikke har hatt støtte for dette. Lenke til kommentar
HSPalm Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Jobber du ofte med transparente JPG-bilder, da? ;-) Gjennomsiktighet er et must for bilder mot f.eks. web. Håpløst å innføre et nytt format som ikke støtter dette, selv om jpeg før ikke har hatt støtte for dette. Det er ikke innført et nytt format. Det er innført en ny komprimeringsalgoritme for JPEG. De som bruker JPEG vil altså dra nytte av det. 1 Lenke til kommentar
vidor Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Alle pikslene som ikke er svarte, er endret fra originalbildet (som vel å merke ikke er en lossy fil, men en jpeg fil, så der var det allerede data tapt). Det ante meg at dette måtte være tilfelle. Perseptuelt i likhet med Guetzli, mao. Interessant å teste dem opp mot hverandre, da det er tatt ut en del patenter som brukes i JPEGmini. 1 Lenke til kommentar
knutinh Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Foholdsvis billig betyr ikke gratis. 30% forskjell er en veldig stor forbedring, gitt at filene faktisk er objektivt like bra komprimert, og ikke bare "ser like bra ut" for utrente øyne.Lossy koding handler om å lever subjektivt "godt" output for en gitt bitrate. Hvis denne algoritmen f.eks .gir bilder som "ser like bra ut som vanlig JPEG ved 70% av bitraten" eller "ser signifikant bedre ut enn vanlig JPEG ved samme bitraten" så er det et framskritt. Hvorvidt dette framskrittet er reelt, og om det verdt betydelig regnetid i enkoder er et åpent spørsmål. -k Lenke til kommentar
Jan Olsen Skrevet 22. mars 2017 Del Skrevet 22. mars 2017 ser opg ser.. de kommer vel ann på øynene som ser (kumme ikke motstå) spørsmålet er hat den nye algoritmen mer eller mindre datatap for samme fil størrelse (komprimerings artefakter etc)? Hvorfor fokuser alltid folk på mest mulig komprimering, både bånbredde å lagring er forholdvis billig eller tar jeg feil? du tar feil, ok litt vel direkte/spydig av meg Å spare 35% har nok en viss betydning. Google sin unlimited photo cloud trenger plutselig 35% mindre plass, noe de sikkert vil spare betydelig på. En del steder er mobilnettet ganske elendig, f.eks. deler av JFK flyplass hvor datahastigheten er så treg at 35% mindre databruk nok ville være en fordel. Lenke til kommentar
vidor Skrevet 10. april 2017 Del Skrevet 10. april 2017 (endret) Etter mine tester vinner JPEGmini med god margin. MYE kjappere, mer kompatibel output mht fargeprofiler der Guetzli gjør veldig rare ting. Bedre kompimering enn Guetzli på tilnærmet perfekt bildekvalitet hvor du heller ikke trenger å spesifisere JPEG kvalitetsgrad på JPEGmini, mens du må gjøre det på Guetzli.Guetzli bruker bruteforce utpreget kombinatorikk og burde sånn sett ha en edge etter forbrukte CPU-sykler vs bildekvalitet, men innsatsen ser ikke ut til å være verd det. Endret 17. april 2017 av vidor Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå