Blogg & Insikter

Länkarnas betydelse för sökmotoroptimering

Förr, var länkar inget som spelade någon roll i sökmotoroptimering, då hade vi Altavista som favoritsökmotor i Sverige. Altavista mätte mer eller mindre bara hur många gånger ett ord nämndes på sidan och rankade den utifrån det. Google ändrade spelplanen helt däremot när de kom och deras främsta vapen mot den typen av spam: Länkar.

Googles Pagerank-algoritm är en algoritm för att mäta länkar. Den mäter hur många och hur viktiga länkar som pekar till en viss sida (notera sida, inte sajt) och värderar sidan utifrån det. Pagerank är en ganska komplicerad algoritm och den byggs ut hela tiden, dess funktion däremot är den samma som alltid: Se till det är svårare att manipulera resultaten genom att mäta auktoritet.

Den stora fördelen med att mäta länkar mot att bara mäta innehållet på sidan är att det är mycket mer komplicerat att manipulera länkar.  Det skapar en tröghet i systemet, länkar tar helt enkelt mycket mer tid än att helt enkelt skriva Britney Spears 200 gånger på sidan, vilket var ganska vanligt i Altavistas fall.

Google har problem med sitt index, det finns massor av skräp och en del är länkrelaterat, det mesta de skickar varningar (Google varnar i Search Console om de hittat något de tycker bryter mot deras riktlinjer) handlar om den typen av spam som man gör på den egna sajten, indexerar massor av automatgenererade sidor (som sökresultat till exempel) eller arbetar med dold text (exempelvis att dölja en rubrik av typen H1 för besökaren men visa den för Google).

Anledningen till det här är förmodligen inte att de mindre nogräknade sökmotoroptimerarna inte förstår att länkar är viktigt utan att det krävs så lite resurser för att göra det på den egna sajten. Ta indexering av sökresultat, det är till och med lite luddigt vad som är spam och vad som helt enkelt är bra sökmotoroptimering. På den här bloggen finns det kategorisidor, de är egentligen inget annat än ett sökresultat och det är fullt rimligt att ha kategorier på en blogg. Om jag la alla poster i 10.000 olika kategorier däremot så att den stora massan sidor på sajten bara är olika sorteringar av de poster jag skrivit så är det spam. Någonstans däremellan hittar du gränsen.

Varför har då Google ändå problem?

Google arbetar hårt med att förbättra sina sökresultat och det kommer uppdateringar löpande. Det görs hundratals uppdateringar varje år och algoritmen är idag mycket komplex och har till stora delar självlärande egenskaper. Det innebär per automatik att den är svår eller omöjlig att överskåda, även för den som är allra mest insatt i Googles maskineri. Google har på senare år insett att man behöver arbeta tillsammans med SEO-branschen och på så vis förbättra, där man under de tidiga åren troligen upplevde motsatsen.

Det finns arbete med länkar på alla tänkbara nivåer, från det sämsta av skräp från Fiverr, till välförtjänta länkar från Universitet och det är just hur man mäter länkar som så länge skiljt ut Google från övriga aktörer. På senare år har detta börjat ändras, Google mäter allt fler olika faktorer, och kanske ser vi en avtagande betydelse i framtiden. Problemet är väl att det skapar mindre tröghet och öppnar för ökande enkel manipulation.

 

 

 

 

Aaron Axelsson

Head of SEO / Vice VD

Aaron jobbar som Head of SEO på Brath sedan 2014 och ansvarar för kvaliteten på våra SEO-tjänster

Aaron Axelssons profilsida

2 kommentarer

    ” (notera sida, inte sajt) ”. Det var intressant! Jag har alltid levt i villfarelsen att det är sajten totalt som räknas. Är det viktigt att den enskilda sidan har bra inlänkar direkt till sig istället för att de länkas till sajtens startsida? Är svaret så enkelt som att det är djuplänkning som är grejen?

    Svara

    Sajten har egenskaper som också spelar roll men det är den enskilda sidans länkar till sig (även internt på sajten) som är viktigast.

    Svara

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *