Gå til innhold
Trenger du hjelp med internett og nettverk? Still spørsmål her ×

Superrask opp/nedlasting over internett mulig?


Anbefalte innlegg

Trodde egentig at det skulle bli ennå kortere tid med sjekk i alle løkkene, men det var kanskje å håpe litt mye.

Joda, det var uten sjekk i alle løkkene. Med denne sjekken går det unna på 31 sek. :) Hadde vært morro å prøvd med maskinkode også ja! Hadde nok også fått noe bedre resultat med c vil jeg tro.

Lenke til kommentar
Videoannonse
Annonse

Huff, så mye rart folk tror om komprimering.

 

Lossless:

1) Helt uavhengig informasjon kan ikke komprimeres. Du bygger en rekke 0010101011x. Tenk slik "Om jeg visste alt unntatt bit x med informasjon, kunne jeg sagt noe om sannsynligheten for hva den er da?" Hvis svaret er ja, er den ikke helt tilfeldig. Om nei ser du at hver bit er nødvendig ettersom alle de foregående er nødvendig for å uttrykke sin egen informasjon.

 

Typisk informasjon (bilder, lyd, video) er ikke tilfeldig i X-retning, Y-retning eller i tid. Men dersom du tok opp hvit støy, kan ingenting hjelpe deg.

 

2) Alle filer inneholder informasjon. Den samme informasjonen kan uttrykkes på mange forskjellige måter. Jeg kan f.eks. bruke "1.000.000" eller "10^6". Jeg kan dele opp informasjonen "Det er en 10er-potens" og "Eksponenten er 6" men informasjonsmengden er uendret.

 

Som du ser har dataene disse svært forskjellig lengde, selv om de uttrykker akkurat det samme.

 

3) Kompresjon handler om å uttrykke den samme informasjonen ved hjelp av andre data. En perfekt komprimering ville bryte ned avhengig informasjon "denne pixelen er rød" (men de rundt er trolig også det) til uavhengig informasjon "dette området er rødt" (og det er ikke mulig på noe annet vis å anta at dette området er rødt). Størrelsen på dataene vil aldri bli mindre enn mendgen informasjon.

 

----

 

Hva betyr dette?

Du kan gjøre en fil med liten informasjon (f.eks. bare 0er) uendelig stor.

Du kan ikke gjøre en fil med mye informasjon uendelig liten.

 

----

 

Lossy komprimering:

1. Tenk akkurat som over, bortsett fra at kroppen din har begrenset evne til å oppfatte informasjon. Dvs. at det i dataene finnes informasjon som kun er informasjon for datamaskinen, ikke for deg. Den informasjonsmendgen du søker er den mennesket kan oppfatte. Ellers er prinsippet det samme som over.

 

----

 

Hva betyr dette?

At folk som bruker dataanalyser til å vurdere lossy formater (jpg, mp3, xvid) er idioter. Poenget er at man skal fjerne den informasjonen folk ikke oppfatter, uansett hva maskina kan klare å finne av forskjeller. Det er ikke relevant som de og de frekvensene forsvinner hvis folk ikke kan høre dem.

 

----

 

Hva er "best"?

Generelt så bør man komprimere med en best mulig modell av dataene. Dette betyr f.eks. at et videokomprimeringsprogram vet at det er X punkter pr linje, Y linjer pr. frame, og at påfølgende frames er ofte like. Et generelt komprimeringsprogram kunne i teorien klare akkurat det samme, men måtte brukt vanvittig mye lengre tid.

 

Derfor: Jo bedre "overføringshastigheten" din er, desto dårligere var dataene komprimert på forhånd, og siden den generelle komprimeringa er dårligere, går overføringen egentlig TREGERE. Uansett hvordan du snur og vender på det, vil linja di aldri klare å sende/motta mer informasjon enn den egentlige farta uten komprimering.

 

Kjella

Lenke til kommentar
  • 2 uker senere...

Akkurat nå er jeg litt forvirret. Har akkurat diskutert med en kamerat som påsto at han hadde unzippet en 250 MB fil (Spill) og at den ble 3 GB utpakket. Jeg påsto da at den måtte være korrupt, men den skulle visst nok virke. Er dette mulig? Og i såfall hvordan?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...