Gå til innhold

Laste ned og parse masse websider raskest?


Anbefalte innlegg

Lurer litt på hva ekspertene her mener er beste veien å gå, i situasjonen at man har flere websider å laste ned (les: ma-hasse sider), god båndbredde men mindre god maskin.

 

Kaste opp en masse tråder? Noe finurlig med å be om flere sider samtidig?

 

Hører med til historien at det hele går ut på å stjele en database, ved å poste GET og parse det man får.

Lenke til kommentar
Videoannonse
Annonse

Jeg har bare drevet med slikt før Perl fikk god trådstøtte (vet ikke hvor god den er nå). Jeg pleide bare å lage programmet slik at man kunne starte flere instanser av det. Med mindre du snakker med en særdeles rask maskin, vil den neppe takle mer enn 5-10 instanser av gangen uansett.

Lenke til kommentar

Vet ærlig talt ikke. trådstøtte var buggy før version 5.6, men fork funker nok bra.

 

du kunne forka if scalar @procs < $max eller noe sånt.

 

det finns moduler får å finne andre processer. enda mere avansert, brukt shared memory for å holde kontroll på hvor mange processer som kjører ;)

 

10 er sikkert et fornuftig tall.

 

hvilken db skal du bøffe?

Lenke til kommentar
  • 2 uker senere...

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...