abene Skrevet 5. mars 2010 Del Skrevet 5. mars 2010 Snart vil Google kunne oppdateres mye raskere enn dagens indeks. Les mer Lenke til kommentar
Deezire Skrevet 5. mars 2010 Del Skrevet 5. mars 2010 Det har aldri vært snakk om å droppe vanlig crawling, tvert i mot. Det de snakket om (var vel forsåvidt et tips fra en slashdot-leser) var at publishers kunne legge med en lenke til sin push-hub, som f.eks. kunne bruke Google sin egen open source teknologi PubSubHubbub (1). På den måten kunne crawleren finne disse og gjøre slik at Google fikk melding om nytt innhold. Begge teknologiene i sammen skulle kunne gi "sanntisindeksering". (1) http://code.google.com/p/pubsubhubbub/ Lenke til kommentar
Theo343 Skrevet 6. mars 2010 Del Skrevet 6. mars 2010 (endret) Man kan undre seg hvor høy belastning Crawlere totalt sett legger på nettet. Ikke minst pga. dårlig konfigurerte webservices. Virker ikke som en god metodikk for dette, heller gammel og utdatert tankegang. Push har jo også sine åpenbare tankevekkere, men alikevel mer rett vei å gå. Man burde kanskje heller gjøre det slik at alle webadmins sørget for push til sentrale HUBer og at crawlerne kun henvendte seg til disse og kuttet "linjene" på den gammeldagse resurskrevende metodikken. Om ikke annet vil sentrale HUBer også kunne utvikles til å være et kvalitetssikrende ledd. Endret 6. mars 2010 av Theo343 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå