Gå til innhold

Vil en XML sitemap hjelpe Google?


Anbefalte innlegg

Google indekserer bare 3-4 sider i websidene mine!

 

De fleste sidene har ikke blitt indeksert siden desember, januar, mens hovedsiden stadig blir indeksert (sist 28. mai)

 

Vil en XML sitemap i roten hjelpe, hvor jeg setter høyere prioritet på de sidene som ikke har hatt robot-besøk på lenge?

Lenke til kommentar
Videoannonse
Annonse

Nei. Det vil ikke hjelpe.

 

Men en Sitemap hvor du forteller hvilke sider som er oppdater vil kanskje hjelpe.

 

Men husk at Google må ha en viss PageRank for at sidene skal bli indeksert. Og at Google ikke indekserer sider som er sperret med robots.txt-filen eller sider med NOINDEX-meta.

Lenke til kommentar

Hva slags verktøy bruker man for å fortelle hvilke sider som er oppdatert da? XML site map er designet til å fortelle hvilke sider man helse vil at skal oppdateres først; de to instruksene er vel omtrent samme tingen?

Lenke til kommentar
Nei. Det vil ikke hjelpe.

 

Men en Sitemap hvor du forteller hvilke sider som er oppdater vil kanskje hjelpe.

 

Men husk at Google må ha en viss PageRank for at sidene skal bli indeksert. Og at Google ikke indekserer sider som er sperret med robots.txt-filen eller sider med NOINDEX-meta.

 

 

Hei

 

Nå er vel Google interessert i å være en solid søkemotor med oversikt over nettets nettsider/innhold, og da må de vel indeksere sider som ikke har PageRank (f.eks. en helt ny side).

 

Jeg tror ikke Google vektlegger PageRank så mye som brukere gjør.

Hele poenget til en søkemotor må jo være å vise et søkeresultat med de beste treffene og det uavhengig av hvilken PageRank siden har.

 

Tror at Google er klar over at PageRank har sine svakheter, f.eks. PageRank "venner" der det lages link mellom nettsteder og kun i den hensikt å øke PageRank.

Vil sammenligne dette med en nettside der man anbefaler 20 "gode" produkter til sine besøkende og hvis bruker titter etter så ser han/hun at alle linkene til produktene er affliate linker. Da er det vel grunn til å sette spørsmålstegn ved troverdigheten/nøytralitet angående anbefaling av de 20 gode produkter.

Sjansen for at eier av nettsted utelukkende har tenkt affliate kroner i lommen, og tilfeldig valgt ut noen produkter - er absolutt tilstede.

 

For å oversette det til PageRank; hvis nettsted A i stor grad linker til nettsted B så burde dette gi grunnlag for at Google stiller spørsmålstegn ved nøytralitet/troverdighet.

 

Jeg mener at en viktig del av Internett er nøytralitet. Hvis nettsted A skriver en artikkel om f.eks. "biler" og linker så til en artikkel på nettsted B som også omhandler "biler", og dette er gjensidig og gjentagende så gir ikke jeg + i boken for nøytralitet.

Unntak finnes naturligvis, f.eks. hvis nettsted B er et online leksikon. Forøvrig er vel leksikon et godt eksempel på det med ekstern link, da leksikon har strenge kriterier angående nøytralitet o.l.

 

Jeg kan ikke se annet enn at nøytralitet må ligge til grunn og være høyt verdtsatt av en søkemotor. At en moderne søkemotor også vektlegger trender, ja det tror jeg også og har til en viss grad forståelse for det; f.eks. at et populært nettsted havner i toppen av søkeresultat, selv om resultater under har bedre informasjon rettet mot søkeord(ene).

 

Derimot en "nettverks" søkemotor som kun viser resultater fra store nettsteder, nettsteder med mange inngående linker, etc. Har jeg faktisk ikke tro på at vil overleve så meget lenge..

 

Når det gjelder trådstarter sitt spørsmål om sitemap, så har vel Google noe som heter "Crawl error" og som kan gi svar på forhold relatert til sider som er blitt forsøkt indeksert.

 

Tror nå også at en sitemap vil hjelpe godt på, såfremt ikke sider er blitt sperret av bruker selv.

 

Det er jo også flere søkemotorer, slik at:

 

Sitemap: <sitemap_url>

i robots.txt fil, kan vel være et tips.

 

Ellers er mitt beste tips å ha fokus på nettstedet/innholdet og ikke PageRank, søkemotorer, linkbygging etc.

Tror dette er som til syvende og sist vil telle.

Har man da et nettsted, som oppdateres, har godt innhold og gyldig kode, så er man nok kvalifisert som god venn av søkemotorer ;-)

Tror også at søkemotorer vil ta/tar hensyn til alder på nettstedet, dvs har man et nettsted med noen år på baken og med god drift så er dette absolutt + i boken.

At Whois-informasjon er en av faktorene hos Google setter nå jeg fingeren på, likedan gjelder det for menneskelige faktorer, dvs. Google har manuelle metoder.

Lenke til kommentar
Jeg tror ikke Google vektlegger PageRank så mye som brukere gjør.

Det er jeg 100 % enig i ;)

 

Men det jeg mente var at hvis sidene dine ikke har noen PageRank i det hele tatt (altså ingen linker fra sider med PageRank) er det ikke nødvendigvis Google vil indeksere dem. Jeg har i hvert fall erfart at kun å sende URL-en din til Google ikke funker spesielt bra før man får/legger til en link fra en ekstern side til en side på nettstedet.

 

Når det gjelder PageRank er det en algometri som tar litt av scoren på en side og viderefører den til alle sidene denne linker til. Dette gjør at så lenge en av sidene dine får PageRank (blir linket til av en side med PageRank) vil alle undersidene dine også få det så lenge de er linket til gjennom en eller flere linker, fra denne siden.

 

Hvis en av sidene dine ikke blir indeksert av Google bør du derfor gå gjennom dette.

1. Sjekke om en siden(e) er blokkert av robots.txt eller Meta-info.

2. Sjekke av hovedsiden på nettstedet er linket til fra en ekstern side (med PageRank)

3. At alle sidene dine kan nås gjennom linking fra hovedsiden.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...