Gå til innhold
Trenger du hjelp med internett og nettverk? Still spørsmål her ×

Finnes det en skikkelig søke motor til internett ?


Anbefalte innlegg

jeg var veldig usikker på hvor jeg skulle legge denne, og åssen jeg skulle spørr, men jeg prøver.

 

 

jeg lurer på om det finnes et prog som faktisk søker inett. og da mener jeg faktsik søker på internett.. ikke slik som google gjør med å bare bruke stikk ord. jeg tenker på grundig søking som tar TID...

 

 

på forhånd, takk :)

Lenke til kommentar
Videoannonse
Annonse

Er ikkje heilt med på kva du er ute etter:

Forenkla kan google sin søkemotor beskrives slik:

Den går igjennom kvar side og indekserer denne ved av eit mønster.

Dette mønsteret går ut på å luke ut ord og tegn som er vanlig vanlige (eks i, jeg , vil om, .......)

og indekserer dei "unike" orda. som dei lagere på sine eigne servere og hurtigindekserer desse igjen.

 

Så google og dei andre søker "heile" internett etter kvart. berre at det tar ei stund.

 

Så søke berre på "råteksten i sidene kan fort bli eit veldig stor problem, både korleis ein skal indeksere det og gjennfinne informasjonen. Blir ein enom datamengde og trenger ein umåtleg stor datakraft til å effektivt søke igjennom.

 

(det var litt av det eg huska av mellomfag informasjonsgjenfinning (NTNU) for nokre år sidan.)

mvh

JanEirik

edit:

her står det litt om det faget eg tok for nokre år sidan.

Endret av Jankee
Lenke til kommentar

Kan hende jeg har misforstått, men google "tar" vel ikke "bare stikkord"?

Poenget er at når du søker på google, så har google allerede søkt på internett i tre mnd elns, det er så lang tid det tar å komme rundt. Spørs vel om det finnes noe marked for å punche inn en søkestreng og så vente tre måneder på å få svar. (Bare for å finne ut at man har vært for upresis eller for spesifikk, så man må søke på nytt).

 

Hvis greia di er at du vil finne ei side du ikke finner med google tror jeg det beste tipset er å kombinere bruk av google med f.eks kvasir, fast og altavista (og aaaalle de andre..)

Lenke til kommentar
Google hadde vært perfekt hvis en kunne få bort all reklame!!!! Irriterer meg grenseløst.

 

Hvordan i all verden har du klart og overlevd på f.eks. hw.no hvis reklamen på google.com (som er svært minimalistisk og ikke-grafisk) kan irriterer deg grenseløst? :ermm:

Endret av Fury
Lenke til kommentar

sponsored links med blå bakgrunn...jeg viste ikke om dem før jeg leste om dem...

 

veel: i disse dager er linkene som er sponsa samla på høgre sida, og det står klart og tydelig "sponsored links" på toppen av kolonna...

 

at dette skal være plagsomt kan jeg ikke forstå. Google er en av de reneste, mest klare søkemotorene i dag...de blander ikke sponsored links inn blandt de vanlige søkeresultatene...noe de fleste andre gjør...

 

hvis ikke google funker for deg, så tror jeg du bør slutte å bruke alt som heter internet...du vil iallefall ikke finne noe annet som er bedre og mer reklamefri....

Lenke til kommentar
har prøvd copernic og den finner så og si det samme som det google gjør .. selv nå den søker igjennom 16 forskjellige søkemotorer :p

Hva er det du egentlig er ute etter når de beste søkemotoren ikke duger, hva er det du savner?

Lenke til kommentar
Google hadde vært perfekt hvis en kunne få bort all reklame!!!! Irriterer meg grenseløst.

 

Hvordan i all verden har du klart og overlevd på f.eks. hw.no hvis reklamen på google.com (som er svært minimalistisk og ikke-grafisk) kan irriterer deg grenseløst? :ermm:

Reklamen på hw.no er enkel og fjerne! frå andre sider også!

Lenke til kommentar
Kan hende jeg har misforstått, men google "tar" vel ikke "bare stikkord"?

Poenget er at når du søker på google, så har google allerede søkt på internett i tre mnd elns, det er så lang tid det tar å komme rundt. Spørs vel om det finnes noe marked for å punche inn en søkestreng og så vente tre måneder på å få svar. (Bare for å finne ut at man har vært for upresis eller for spesifikk, så man må søke på nytt).

Nå har ikke Google indeksert mer enn noen prosenter av verdensveven da. Man regner med at mesteparten av internett ikke er indeksert i noen søkemotorer.

Lenke til kommentar
jeg var veldig usikker på hvor jeg skulle legge denne, og åssen jeg skulle spørr, men jeg prøver.

 

 

jeg lurer på om det finnes et prog som faktisk søker inett. og da mener jeg faktsik søker på internett.. ikke slik som google gjør med å bare bruke stikk ord. jeg tenker på grundig søking som tar TID...

 

 

på forhånd, takk :)

Finnes tilogmed noe ennå bedre enn programmer som gjør dette: Mennesker! http://answers.google.com/answers/

 

Du får tilogmed lov til å betale dem! *whee*

 

 

timtowtdi

Lenke til kommentar

Ingen søkemotor kan søke gjennom internett. Det må bli indeksert først!

 

Google's "indekser" bruker vel noen måneder hver gang, gjør den ikke? Lurer på hvor lang tid hvert søk hadde tatt om den skulle ha lasta ned hver eneste side og sjekke etter søkeord hver gang en søkte..

 

 

Edit: Diablito2k, hvis du skal bruke et program som kjører lokalt hos deg ville det ha tatt en god stund. Husk at du da måtte ha lasta ned alle sidene i hele verden ;)

Endret av Jonas
Lenke til kommentar

For ikke å glemme all diskplassen han måtte hatt.

 

Indekseringer gjøres på flere nivå, og jeg tenkte jeg skulle forklare kjapt hvordan det funket:

 

1. Med megt jevne mellomrom oppsøker en Spider/Søkerobot websidene som skal indekseres. Her teller den opp antall unike ord og hvor mange ganger de forekommer. For eksempel om ordet "Tulling" dukker opp 11 ganger, så vil dette gi siden en Indeksering under tulling med 11 i verdi.

 

2. Det sammenlignes deretter med antall linker til siden fra andre websteder, og la oss for eksempelets skyld si at 12 websteder linker til dette nettstedet. Det får da en relevans verdi på 12.

 

3. Det sammenlignes også etterhvert hvor ofte denne siden blir valgt når folk søker på ordet "tulling", og la oss si at det i løpet av kort tid er 13 som har søkt på "tulling" og 10 av dem valgte linken til dette nettstedet som første oppslag. Da får siden en Indeks verdi på 10.

 

4. Det sammenlignes også mot andre relaterte ord fra en synonym database, og i dette tilfellet dukker ordet "Idiot" også opp 20 ganger. Den får da en økt Synonym verdi på 20.

 

Vektallet på dette nettstedet er nå 63 (verdiene er bare eksempler forresten og oppgis i en helt annen skala, men for enkelhets skyld har jeg laget dem slik), og dette webstedet vil komme opp før alle som har lavere verdi med ordet "Tulling".

 

 

5. Med jevne mellomrom lastes også websiden ned bit for bit slik at den kan lagres i et snapshot arkiv. Dette arkivet er det største som finnes av Internett sider og er på 11 milliarder websider, og slettes ikke komplett. Dette lagres i et felles arkiv som du også kan søke på Wayback machine .

 

Til disse oppgavene brukes det server clusters på rundt 200 maskiner av meget kraftig standard(Altavista søkesenter), og selv med all denne maskinkraften tar det rundt regnet 5-8 måneder for dem å indeksere alle sider som de vet om (husk 40% av websidene i verden er ikke indekserte), og når de er ferdige starter de på en ny runde. Hver uke starter en ny process som går sin del av syklusen slik at man hele tiden får ferske resultater.

 

Google bruker et lite ekstra tricks når det gjelder å være oppdatert, de bruker nemlig verdiene til også å vurdere om ett nettsted brude få en egen prosess og hyppig oppdatering. For eksempel er cnn.com så ofte klikket på og så ofte linket til at de får en høy verdi og derfor får en egen spider hver dag. Ved å gjøre det slik klarte Google å bli den mest populære søkemotoren. Ulempen er at som søkemotor favoriserer dette de store nettstedene mens små nettsteder med hyppige oppdateringer oftere blir ofre for oppslag hvor siden er borte fordi den er utdatert.

 

Slik fungere altså en søke tjeneste, og nå skjønner du kanskje hvorfor dette ikke er noe man vil gjøre hjemmefra. Bare for å gi deg et lite eksempel på størrelsen på internett: Send et ping til hver maskin på internett via et program som kan pinge sekvensielt og deretter lagre responsen (Online/offline bare), så vil det alikevel ta en normal PC med en 2mbps linje ca 4 år å gjøre dette, og før den er ferdig er jo dataene den har lagret utdaterte.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...