Indexering av webbsidor – Google och andra sökmotorer

Publicerat av stefannordstrom den

vad är indexering

Indexering är den process när Google och andra sökmotorer hittar och katalogiserar webbsidor och sökord. Sökmotorernas spindlar crawlar (går igenom webbplatser) och samlar allt av värde som hittas. Sedan sker indexeringen; informationen sorteras som ett bibliotek.

De flesta vet om att SEO (sökmotoroptimering) är en viktig del av digital marknadsföring. Färre vet hur Googles indexering faktiskt går till. Här kan du läsa mer om hur hemsidor indexerats och vad kan man göra för att se till att ens sajt finns med bland sökresultaten.

Några saker som du kan läsa om i denna artikel är:

  • Varför indexering är viktigt
  • Hur indexering går till
  • Hur man ser om en sida är indexerad
  • Vilket innehåll som blir indexerat
  • Om man kan undvika att synas på Google

Stefan NordströmOm Stefan Nordström

Konsult inom digital marknadsföring
7 års erfarenhet
Expertområden: SEO, copywriting, nyhetsbrev, konverteringar, digital strategi
nordstromstefan86@gmail.com
https://www.linkedin.com/in/stefan-nordstr%C3%B6m-9689bb5b/


Varför är indexering viktigt att tänka på?

Indexering av en sida är ungefär detsamma som att möjliggöra att man syns. Om man inte blir indexerad har man ingen möjlighet att få organisk trafik från sökmotorer. Misstag med teknisk SEO och andra inställningar kan göra att man inte blir indexerad trots att man avser det.

Det bästa sättet att se till att allt fungerar med indexering och andra sökmotorinställningar är att anlita en SEO-expert som ser till att allt står rätt till.

Hur går indexering till?

Det kanske mest intressanta med indexering är att man faktiskt söker i ett bibliotek av webbsidor. Sökningen kan kännas som att man söker ”live” på hela internet, men så är det faktiskt inte. Sökmotorerna gör en avbildning av de sidor som hittas på internet för att sedan rangordna deras relevant för en viss sökterm.

Google och andra sökmotorer lägger ner enorm kraft på sina crawlers som kontinuerligt söker igenom internet. Sökmotorerna går hela tiden igenom de sidor som redan indexerats för att kolla efter uppdateringar. Populära hemsidor som ofta uppdaters prioriteras, men de flesta hemsidor blir indexerade i någon utsträckning.

Internet gigantiska omfattning innebär till slut att Google har miljarder hemsidor i det index som utgör sökresultaten. Sökmotorer är en enorm process som kräver mycket av mjukvaran. Självklart måste mycket automatiseras.

Eftersom det inte är människor som crawlar och indexerar hemsidorna (även om manuell bedömning finns i viss utsträckning) gäller det att maximera sina möjligheter genom att ge Google korrekt information. Men vad kan ge Google för information om sin sajt? Häng med så kollar vi på t ex sitemaps, spindlar och en del annat som kan vara bra att veta.

Sitemaps hjälper med indexering

Ett sätt att ge sitt innehåll bästa möjliga chans att bli indexerat är att ha en uppdaterad sajtkarta (sitemap). En sitemap är ett textdokument i formatet xml som visar sökmotorerna vilka undersidor en hemsida innehåller.

Det enklaste sättet att skapa en korrekt sajtkarta är att använda WordPress-pluginen Yoast SEO, som automatiskt skapar uppdaterade sitemaps. Om man har en mycket liten sajt kan det gå att göra ett manuell sitemap, men det är alltid bättre att använda verktyg eftersom de säkerställer att informationen är korrekt.

Spindlarna följer länkar

externa länkar

Att följa länkar är ett annat sätt som spindlarna hittar nya sidor att indexera. Alltså är länkar från andra hemsidor något som leder till att det är lättare att komma med på Google.

De flesta har koll på att externa länkar till och från andra domäner är viktiga, men det är också bra att ha en hemsida som är rik på interna länkar för att göra det lätt för sökmotorerna att hitta innehållet. Utnyttja alla möjligheter att skapa länkar till andra artiklar utan att överdriva. Det viktiga är att det är relevant och inte är missvisande.

Viktiga uttryck inom SEO

  • En crawler (spindel) är en sökmotors sätt att att finkamma internet i jakt på innehåll att indexera. Crawlers följer t ex länkar i syfte att hitta så många webbsidor som möjligt.
  • Sajtkartor, eller sitemaps är en fil i formatet xml som samlar sidorna på en viss webbplats. Det är viktigt att ha en sitemap och hålla koll på att den är korrekt och aktuell.
  • SEM betyder search engine marketing. Denna typ av marknadsföring handlar om köpa platser på sökmotorer. Den vanligaste plattformen för SEM är Google AdWords. Det är viktigt att inte förväxla SEM med SEO, som handlar om platser på sökmotorer som man inte betalar för
  • SEO står för sökmotoroptimering. Det handlar om att ge en webbplats och/eller en webbsida de bästa möjliga förutsättningarna att hamna högt på Google. SEO handlar om många olika faktorer som samspelar, men det viktigaste är att skapa innehåll av hög kvalitet
  • SERP står för search engine results pages. En SERP är precis vad det låter som; den sida på en sökmotor där man ser sökresultaten för den sökterm man sökt efter.

Hur ser man om en sida är indexerad?

Det enklaste sättet att hålla koll på sin indexering är att använda Googles verktyg Google Search Console. Om man skickar en korrekt sitemap kan man själv se hur mycket av sajten som blivit indexerat. Google väljer ibland att exkludera vissa sidor, t ex beroende på att de ser innehåll som duplicerat content eller på annat sätt av låg kvalitet.

Håll koll på datumet för din senaste uppdatering av sajtkartan. Om det var lite för länge sen så kan man manuellt välja att skicka in en uppdaterad version av samma sitemap. Det kan vara bra för att ge Googles indexering en knuff och visa att man är aktiv med sin SEO. Du hittar dina sitemaps i vänstermenyn i Search Console.

Bra innehåll leder till indexering och hög synlighet

Googles mål med att crawla och indexera innehåll är att leverera de bästa sökresultaten. Om man vill få sitt innehåll indexerat och hamna högt handlar det om att skapa relevant content av hög kvalitet. SEO är komplext och det finns många saker som behöver stämma om man vill hamna allra högst på Google.

När man använder ett CMS eller någon annan typ av bloggplattform finns risken att överflödiga eller duplicerade sidor skapas. Det kan t ex handla om kategorier och taggar som automatiskt får egna sidor. I vissa fall kan dessa ge positiv effekt och bli sökbara. Oftast är de dock innehållsfattiga och riskerar att tolkas som duplicerat innehåll. Det kan vara bra att se över vilka inställningar man har i sitt CMS.

En runda i Neil Patel’s verktyg SEO Analyzer är ett bra sätt att upptäcka t ex duplicerat innehåll och innehållsfattiga sidor. Verktyget crawlar, likt Google, hela din webbplats i syfte att se vad som kan förbättras med sajtens SEO. Eftersom man sällan ser sin sajt från en spindels synvinkel kan upptäckerna vara ganska ögonöppnande.

Kan man undvika att synas på Google?

Många vill synas på Google, men i vissa fall vill man göra motsatsen och se till att en sida inte blir indexerad. Robots.txt är ett dokument som finns på varje sajt. Det är ett viktigt dokument eftersom man kan använda de till att ange sidor som man inte vill ha indexerade. Även om man inte vill exkludera sidor kan det vara bra att ibland titta in sin robots.txt; det kan finnas sidor inlagda där som man faktiskt vill göra sökbara.

Indexering och mer – sökmotorkonsult finnes

Indexering är bara ett steg av många i att uppnå god synlighet på Google och andra sökmotorer. Dock görs SEO bäst av de som är experter inom området.

Jag är en frilansande SEO-konsult med erfarenhet av att skapa innehåll, optimera hemsidor och leverera så många digitala leads som möjligt. Vänligen lägg till mig på LinkedIn eller maila på nordstromstefan86@gmail.com så tar jag en titt på din SEO.

Läs mer:

Vad är content marketing? ->
SEO-copywriting; att skriva för sökmotorer ->
Konverteringsoptimering (CRO) ->
Hur skriver man riktigt bra blogginlägg? ->

Kategorier: SEO

0 kommentarer

Lämna ett svar

E-postadressen publiceras inte. Obligatoriska fält är märkta *