Förstå Panda, Pingvin och andra filter

Riktig SEO

Sökmotoroptimeringens kärna är ofta att förstå Google och sökmotorns algoritm. En mycket viktig del som missas av allt för många, även om det blivit lite bättre sedan Panda och Pingvin blivit välkända, är att förstå att resultaten skapas i flera lager. 

Det enda rimliga sättet att se på Googles många filter, och manuella insatser, är att först skapas resultaten, sedan filtreras de. Vi kan inte svära på att det är så här det går till men det här är den bästa modellen att arbeta utifrån. Om du väljer att anamma vår modell kommer du få en helt annan förståelse för sökresultaten, för hur sökmotorn reagerar på input och jag är övertygad om att du kommer göra bättre sökmotoroptimering.

Allt för ofta sitter sökmotoroptimerar, både amatörer och proffs, fast i en taktik. Man har lärt sig en taktik för att göra sökmotoroptimering snarare än att förstå sökmotorn. Vi ser det här hela tiden. Låt oss ta ett exempel: Idag är den enskilt starkaste signalen till hur en sida ska rankas länkar. Om det ändras i framtiden behöver man förstås ändra hur man arbetar med sökmotoroptimering men just idag ser det ut så. En vanlig taktik för att få länkar förr var till exempel länkkataloger. Fram till för några år sedan var länkkataloger ett väldigt enkelt sätt att få redaktionellt granskade länkar till sin sajt. Det var dessutom en av de få taktiker som Google uppmanade till i sina Webmaster Guidelines.

Idag skulle jag vilja påstå att risken med länkar från länkkataloger är så pass hög att den gör den lilla fördel man möjligtvis kan få ointressant. Google har gått från att uppmuntra till användandet av länkkataloger till att bestraffa det. Det är lätt att i det här läget bara byta till en ny taktik som Google ännu inte hunnit reagera på, eftersom man söker efter något likvärdigt. Snarare är det kanske så att man ska använda sig av något fundamentalt annat än länkkataloger.

Nu är länkkataloger något som i princip alla övergett sedan länge men det var ett tydligt och enkelt exempel. Låt oss ta ett annat exempel som ligger lite närmare i tid. Att indexera sökresultat på sin sajt (gränsen mellan vad som är sökresultat och vad som är t ex en kategorisida kan vara lite luddig) var ett sätt att snabbt bygga massvis med perfekt relevanta landningssidor för oräkneliga sökord. Om du har svårt att komma på hur det skulle kunna se ut så tänk på sajter för recensioner av företag där du kan hitta ”sökmotorkonsulter i Stockholm” eller receptsökmotorer så förstår du vad vi menar med att indexera sökresultat.

Det här var en taktik som kunde ge väldigt mycket trafik under förutsättning att sajten hade auktoritet sedan tidigare. Visserligen var det något Google ogillade och det har funnits exempel på manuella nedvärderingar av sajter för just detta även tidigare. Genom att skapa en i princip oändlig rad landningssidor har man maximerat vad man kan få ut av Googles algoritm. Algoritmen älskar den här typen av sajter och du kan skapa dem mer eller mindre utan ansträngning. Självklart blev det en taktik som användes ofta av sökmotorkonsulter, särskilt av dem som kanske inte riktigt kunde ta positioner på enskilda sökord på ett systematiskt sätt (läs sökmotorkonsulter som inte klarar av att bygga länkar).  Det här blev förstås ett problem för Google.

För att hantera dessa och liknande sajter introduceras Panda. Panda är ett filter som slår mot sajter med gott om innehåll av lite eller inget värde. Indexerade sökresultat passar som handen i handsken på vad Google ville filtrera med Panda. 

Och nu ska vi återgå till originalpåståendet. Panda är ett annat lager än själva algoritmen, även nu då Panda körs mer eller mindre löpande. Taktiken att indexera sökresultat är fortfarande en fungerande metod för att lura Googles algoritm (för det är just lura den man gör). Det är fortfarande fullt möjligt att blåsa upp trafiken till en sajt genom att skapa sjuka mängder landningssidor men Panda, när den körs (utrullning sker under 2 veckor varje månad, ungefär) så kommer sidorna filtreras bort. I efterhand.

Men, säger du nu, det finns fortfarande sajter av den här typen i sökresultaten. Det har du utan tvekan rätt i och anledningen är ganska enkel. Panda är en helt egen algoritm och den har mycket stora datamängder att försöka filtrera på ett rimligt sätt, det finns naturligtvis områden där den inte lyckas göra sitt jobb. Och den bakomliggande algoritmen älskar ju de här sajterna. Det finns dessutom förstås sätt för samma sökmotorkonsulter att kringå pandan.

Om vi tar en titt på Pingvinen som agerar mycket likt panda fast riktar sig mot aggressiva länkar snarare än mot aggressiva landningssidor så blir det dessutom extremt tydligt. Pingvinen har inte körts på snart ett år. Det betyder att det som blivit bortfiltrerat i pingvinen stannar utanför sökresultaten hela det året, oavsett om de aggressiva länkarna tagits bort eller inte. Det betyder också att de länkar som algoritmen älskar (på samma sätt som den älskar indexerade sökresultat) fast som Pingvinen slår ner på fungerat utmärkt under hela året. Under ett helt år har man kunnat hålla positioner på sökord med länkar som Google ratar, bara de kör pingvinen.

Senaste löftet från Google var att pingvinen skulle köras under veckan som gått men den körningen verkar ha uteblivit. Jag är inte säker på att Pingvinen är något att se fram emot (utom för dig med en sajt som åkt ut ur resultaten förra gången) men det ska onekligen bli intressant att få all den SEO som gjorts under förra året betygsatt. Vanligtvis brukar det resultera i att en del byter taktik (till något väldigt likt den tidigare taktiken) och hoppas att de överlever nästa körning, att en del helt enkelt ger upp och slutar med sökmotoroptimering och att domedagsprofeterna upplever sig ha fått lite mer vatten på sin kvarn. Så att de kan ropa att man ska bygga bra innehåll så kommer besökarna av sig själva, helst via magi eller slump.

Kommentera

E-postadressen publiceras inte. Obligatoriska fält är märkta *