Gå til innhold

Grabe urls og annen nyttig informasjon fra en webside.


Anbefalte innlegg

Videoannonse
Annonse

Quote:


Den 2002-12-19 00:51, skrev GeeZuZz:

Vet ikke om det var akkurat dette du tenkte på, men i den nye betaen av opera 7 som kom i dag, er det med en funksjon som viser alle linker på websidene.



 

Du nevner akkurat det som jeg er på utkikk etter. Nemlig det å "grabe" alle linker på en webside/-ene.

Vet du om noen andre shareware/freeware programmer, som har samme funksjon?

 

Takker uansett for ditt forrige svar!

 

m.v.h

Googlerian!

Lenke til kommentar

Quote:


Den 2002-12-19 01:13, skrev Torbjørn:

Perl greier jobben veldig lett!


Code:

#!/usr/bin/perl

use LWP::Simple;
use HTML::TokeParser;

$url='http://hw.no';

$html=get($url);

$parser=HTML::TokeParser->new($html);

while($tag=$parser->get_tag('a')){
my $href=$tag->[1]{href};
print $href,"n";
}


 

Må ærlig innrømme at mine kunnskaper innenfor perl og de fleste andre programmeringsområder er svært - Svært- SVÆRT dårlige. Takker for ditt svar!

 

m.v.h

Googlerian!

Lenke til kommentar

Vet ikke hva du skal med det der, men hvis du har tenkt å leeche bilder/linker bør du være litt forsiktig. Something Awful skifter som regel ut linken til leechede bilder... du vil helst ikke se hvilken bilder de setter inn i stedet :smile:

 

Man skal heller ikke "stjele" båndbredde fra andre sider. Spør om lov.

 

Men som jeg sa; jeg vet ikke hva du skal gjøre med linkene.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...