Arbejdet med søgemaskiner
Mange nybegyndere webmastere og bare fans af internet surfing er bekymret for spørgsmålet: Hvordan fungerer søgemaskiner? Grundlæggende principper for søgemaskiner i dag vil overveje landene i rådene.
Den moderne søgemaskine er en hel kompleks bestående af de mest komplicerede programmer og algoritmer, der arbejder med forbløffende hastighed. Forestil dig det nye søgealgoritme Koffein fra Google er i stand til at behandle oplysninger, der svarer til 3 km af A4-ark, på bare 1 sekund!
I alle søgemaskiner kan softwarekomponenter opdeles i fem hovedgrupper:
- "Spiders"
- "Rejsende edderkopper"
- indexere
- database
- resultater systemer
programmer edderkop - edderkopper (edderkopper) - i overensstemmelse med algoritmen af sit arbejde minde browsere, men har ikke nogen visuelle komponenter. Edderkoppen indlæser HTML-koden på siden ved hjælp af http-protokoller.
En robotanmodning til serveren indeholder en kommando"Få / path / document" og nogle andre http request kommandoer. Til denne anmodning modtager edderkoppen et svar fra serveren som en tekststrøm, der indeholder serviceoplysningerne om dokumentet og selve dokumentet. Edderkoppen er en del af indekseringsmodulet til søgemaskiner.
"The Travel Spider" - crawler - er en anden komponentindekseringsmodul. Crawler naviger automatisk gennem alle de hyperlinks, der blev fundet af edderkoppen på siden og dermed søge efter dokumenter, der endnu ikke er kendt for søgemaskinen.
Robot indekseringen (indexer) fungerer direkte med indholdet på siderne, der er lastet af edderkopperobotter. Indeksøren foretager en morfologisk, leksikalistisk analyse af siderne, og bryder dem ind i separate dele.
Databaser (database) er speciel software designet til at gemme de indekserede dokumenter indsamlet og indekseret af komponenter.
Søgemaskine resultater motor - Systemet til udgivelse af resultater er et af de vigtigstekomponenter i søgemaskinen. Det er med udgangssystemet, som slutbrugeren handler, som går ind i forespørgslen i søgestrengen. Systemet med output af resultater på grundlag af mere end to hundrede forskellige kriterier udfører udvælgelsen af de resultater, der mest opfylder søgsmålene.
Algoritmen for et sådant valg kaldes normalt en algoritme eller ranking mekanisme. For at undgå manipulation af webmastere til at påvirke resultatet af problemet, er den nøjagtige algoritme til rangordning søgemaskiner holdes strengt fortroligt.
Ikke desto mindre er der en række kendte kriterier, der tages i betragtning i søgemaskinens arbejde, optimering, som webmaster kan "lovligt" påvirke søgeresultaterne. For eksempel Søgemaskinen ved analyse af siden tager højde for:
- om der er et søgeord i titlen på siden (titel)
- Vises søgeordet i webadressen på siden?
- om der er et søgeord i overskrifterne H1-H6, tags STRONG, B, EM, I
- Hvad er tætheden af nøgleordene på siden (Densitet)
- Findes søgeordet i metatagsne: søgeord, beskrivelse
- Er der interne og eksterne links på siden?
Brugeren interagerer med søgemaskinen via søgeserveren. Modtaget søgning fra brugerServeren behandler og overfører rankingsmodulet som input til parameteren. Modulet gennemfører i sin tur behandling af dokumenter, oplysninger om hvilke der er gemt i databasen i søgesystemet og foretager en vurdering af sider svarende til brugerens anmodning.
Derefter genererer systemet uddrags tekstinformation, der vises til brugeren i form af SERP (Search Engine Result Page) - søgeresultatsider.
Således endda en kort beskrivelse af de vigtigstePrincipperne for arbejdet med søgesystemer viser, hvor tæt alle softwarekomponenterne i systemet er sammenkoblet med hinanden og hvor godt søgemaskinen skal fungere og klart fungere for at give brugeren den hurtigste og mest pålidelige information om hans søgeforespørgsel.