Hefalompen Skrevet 8. februar 2007 Del Skrevet 8. februar 2007 Trenger en programerer til å lage en webcrawler som lagrer søk i en database. Crawleren skal kunne lagre informasjon om filer som er tilgjengelig i HTTP protokollen. Resultatet skal bli søkbart fra en internett side. Databasen bør inneholde filnavn, størrelse og link. Det skal være mulig å begrense søk til type fil og sted (f.eks. .no) Ønsker å lage databaser som inneholder mange millioner filer. Jeg kan gi nøyaktig beskrivelse hvis du sender en mail. (Det blir for mye å skrive her) Så blir vi enige om pris. Jeg har ikke mye penger å betale deg, men litt har jeg. Hardware har jeg også. Lignende programmer finnes på internett, (Jeg har søkt) men ingen av dem duger noe særlig. Prosjektet er ikke tidsmessig anstrengende. Lenke til kommentar
Anbefalte innlegg