googlerian Skrevet 18. desember 2002 Del Skrevet 18. desember 2002 Kan du være så snill å komme med noen gode anbefalinger om hvilke programmer, som kan benyttes til grabing etter nyttig informasjonsmateriell? Jeg er på utkikk etter et program, som klarer å "grabe" alle url`er på en webside. m.v.h Googlerian - googlere enn googlest! Lenke til kommentar
Lurifaksen Skrevet 18. desember 2002 Del Skrevet 18. desember 2002 Vet ikke om det var akkurat dette du tenkte på, men i den nye betaen av opera 7 som kom i dag, er det med en funksjon som viser alle linker på websidene. Lenke til kommentar
Torbjørn Skrevet 19. desember 2002 Del Skrevet 19. desember 2002 Perl greier jobben veldig lett! Code: #!/usr/bin/perluse LWP::Simple;use HTML::TokeParser;$url='http://hw.no';$html=get($url);$parser=HTML::TokeParser->new($html);while($tag=$parser->get_tag('a')){my $href=$tag->[1]{href};print $href,"n";} Lenke til kommentar
googlerian Skrevet 19. desember 2002 Forfatter Del Skrevet 19. desember 2002 Quote: Den 2002-12-19 00:51, skrev GeeZuZz:Vet ikke om det var akkurat dette du tenkte på, men i den nye betaen av opera 7 som kom i dag, er det med en funksjon som viser alle linker på websidene. Du nevner akkurat det som jeg er på utkikk etter. Nemlig det å "grabe" alle linker på en webside/-ene. Vet du om noen andre shareware/freeware programmer, som har samme funksjon? Takker uansett for ditt forrige svar! m.v.h Googlerian! Lenke til kommentar
Torbjørn Skrevet 19. desember 2002 Del Skrevet 19. desember 2002 Den grabbet forresten alle linker (<A tags), men kan lett skrives om til å ta ut det du trenger fra en side. resultatet kan sees her [ Denne Melding var redigert av: Torbjørn på 2002-12-19 01:26 ] Lenke til kommentar
googlerian Skrevet 19. desember 2002 Forfatter Del Skrevet 19. desember 2002 Quote: Den 2002-12-19 01:13, skrev Torbjørn:Perl greier jobben veldig lett! Code: #!/usr/bin/perluse LWP::Simple;use HTML::TokeParser;$url='http://hw.no';$html=get($url);$parser=HTML::TokeParser->new($html);while($tag=$parser->get_tag('a')){my $href=$tag->[1]{href};print $href,"n";} Må ærlig innrømme at mine kunnskaper innenfor perl og de fleste andre programmeringsområder er svært - Svært- SVÆRT dårlige. Takker for ditt svar! m.v.h Googlerian! Lenke til kommentar
sberg43 Skrevet 19. desember 2002 Del Skrevet 19. desember 2002 Et annet alternativ for å finne alle URLer til en webside er dette programmet, URLSnooper: http://sun.sj.net.cn:8080/souxin/software/...Snooper-106.zip Du skriver egentlig ikke så mye om hva du skal bruke dette til men ofte så vil man laste ned et nettsted (eller deler av et). Da pleier jeg å bruke HTTrack http://www.httrack.com/ Lenke til kommentar
pskard Skrevet 19. desember 2002 Del Skrevet 19. desember 2002 wget (linux) funker veldig bra. Lenke til kommentar
Darth Kjell Skrevet 19. desember 2002 Del Skrevet 19. desember 2002 Vet ikke hva du skal med det der, men hvis du har tenkt å leeche bilder/linker bør du være litt forsiktig. Something Awful skifter som regel ut linken til leechede bilder... du vil helst ikke se hvilken bilder de setter inn i stedet :smile: Man skal heller ikke "stjele" båndbredde fra andre sider. Spør om lov. Men som jeg sa; jeg vet ikke hva du skal gjøre med linkene. Lenke til kommentar
castor Skrevet 19. desember 2002 Del Skrevet 19. desember 2002 Enkel løsning på et enkelt problem (som allerede er nevnt). Last ned Opera fra http://www.opera.com, (stable version) -> installer opera -> start opera -> gå til siden med alle de fantastiske linkene -> trykk "Ctrl+J" voila! Du har nå muligheten til å copy-paste alle url'ne som er siden. - castor - - http://www.techcrew.no - Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå