Gå til innhold

pakkeprogram


Anbefalte innlegg

Trenger et pakkeprogram som oppdatere (slette / endre / legge til) filer i den pakkede fila uten å lese hele.

 

Grunnen til dette er at den pakkede fila skal ligge på en nfs-server. Det blir mye netverkstrafikk (og tar mye temp plass) om hele fila skal lastes over til klienten for å oppdateres for så å sendes tilbake til server.

 

Skulle gjerne brukt tar med -j eller -z parameter (pipe bzip2 eller gzip) men da kan ikke inholdet oppdateres.

Tar uten -j eller -z er jo overhode ingen kompresjon.

 

Det viktigst her er at den pakkede fila kan oppdateres raskt. Hvor mye kompresjon man får er mindre viktig, men det er en fordel om man gjør bedre enn 0%.

 

Kan gjøre dette?

Lenke til kommentar
Videoannonse
Annonse

Dette bør jo gjøres på serversiden. Du har en applikasjon som tar imot data fra klienter og legger denne dataen til i arkivet ditt. Bør ikke være noe problem å lage f.eks. en HTTP front-end for noe slikt i f.eks. perl eller php hvor f.eks. zip/unzip ligger under. Vanlige zip versjoner klare fint å legge til og fjerne filer i arkivet.

 

Men dette blir jo en windows løsning da jeg går ut i fra at serveren din er en windows boks :p

Lenke til kommentar
Vet ikke om det er relevant, men kan det være mulig å bruke et versjoneringssystem som cvs?

 

Har ikke oversikt over noen pakkesystemer som klarer det du spør om.

 

Ptomania

Jeg har liten kjenskap til "versjoneringssystem som cvs". Kan du si hvordan du tenker deg at det kan brukes?

 

Det jeg har, som virker mest fornuftig til nå er å bruke bzip2 på hver enkelt fil, før den sendes til server. En slik måte vil gi sinsykt mange små filer. Mulig det hadde latt seg gjøre å grupere de minste i noen tar filer?

Lenke til kommentar

Jeg skal bruke dette i et backup system som tar backup av en serverpark hver natt. Det skal lagres på harddisk sett av opptil 4 disker, opptill 300GB hver. Worst case senario er altså at det skal overføres opptil 1.2TB i løpet av natta! Derfor er det viktig at data bare går en vei. Om de pakkede filene først skal sendes fra backup server til de andre serverene blir dette altså dobbelt så mye dataoverføring.

(I først omgang er det bare 2-300 GB. Men det blir øker fort når man slutter med cd/dvd brenning.)

Backup serveren vil ikke ha kapasitet til å styre hva som skjer med filene. Den har mer enn nok med å ta i mot over nett, skrive til disk, lage recovery records og levere index filer til de andre serverene. Hver av serverene må kjøre et bash script (tidsstyrt av cron) som oppdaterer de pakkede filene på backupserveren via NFS eller eventuellt andre share systemer.

 

Så, det jeg trenger er altså en eller annen form for pakkeprogram som takler oppdatering av pakkede filer over nfs (eller annen hensiktsmessig share) uten å måtte lese hele fila.

Lenke til kommentar

Det som tar plass er for det meste .psd, .eps og .pdf filer. Alle filer som er komprimerte fra før skal selvsagt ikke komprimeres på nytt, de skal bare sendes over. Men så ligger det vanvittig mange små filer innimellom, som ofte er ren tekst. Disse bør samles og komprimeres i en stor fil.

 

Rsync kan være en god idee. Må undersøke litt om det.

Lenke til kommentar

Rsync er nesten helt perfekt.

Det som mangler for å få den helt perfekt er samling av små filer (<10KB) i litt større grupper (solid archive), slik at de ikke tar så mye diskplass, og muligheten til å spesifisere hvilke filtyper den ikke skal kaste bort resursser på å komprimere.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...