Blogg & Insikter

Så fungerar filter (och manual action) i sökresultat

Filter är en av de områden många, även bland dem som arbetar professionellt, inom SEO missuppfattar. Filter skapar problematik för många eftersom de ofta fungerar helt annorlunda än algoritmen i stort. Nu är det dessutom luddigare.

En bild som brukar underlätta att tänka på filter är en pyramid. I botten skapar den vanliga algoritmen sökresultaten, det är den breda grunden alla sökresultat står på. När det väl är gjort går filter igenom sökresultaten och filtrerar bort det som inte borde hamnat där. Ovanpå, på toppen, kommer manuella åtgärder (Manual Action) av Googles team för sökkvalitet. Oavsett vad algoritmen gjort kan filter plocka bort, eller lyfta fram, sajter och oavsett vad båda dessa instanser tycker kan Googles medarbetare rensa bort sajter.

Googles algoritm i botten, filtreringar ovanpå det och manuella åtgärder i toppen

Det fungerar inte riktigt så men det är en bra bild. Under perioder har man dessutom fått veta när filter körs, så det har varit tydligt vad som händer. Vi ska prata specifikt om Panda och Penguin som är de två mest välkända filter Google kört. De har massor med övriga som kommit och gått under åren men dessa är stora och har påverkat brett. Båda är idag en ständig del av algoritmen men under en period kördes de separat, med några veckors eller månaders mellanrum.

Det hände när Panda kördes

Vi använder Panda som exempel till att börja med. För den som inte vet är det Googles filter för att sortera bort svagt innehåll och det första självlärande filter Google lanserade (lite mer läsning om de båda filtren här). Vi tar steg för steg vad som händer:

  1. Du gör en sökning
  2. Algoritmen går igenom datan och skapar ett sökresultat för den fras eller det ord du sökt efter.  Om man har en sida som kan indexeras ordentligt och som tydligt handlar om ämnet och har tillräcklig auktoritet så kommer man kunna synas.
  3. Det körs ett filter ovanpå sökresultatet, i det här fallet Panda, som specifikt letar efter sidor som mer eller mindre är massproducerade. Dessa utesluts.
  4. Det görs också en kontroll om någon på Googles kvalitets-team flaggat innehåll, då utesluts det också ur sökresultatet.
  5. Det görs personliga, geografiska och lite andra anpassningar för just dig och sökresultatet presenteras.

Anledningen att Panda kom till (och senare Penguin som gjorde liknande saker fast på länknivå) var att man ansåg att sökresultaten fylldes av tunt innehåll. Stora sajter som Ehow skapade miljontals artiklar, med tveksam kvalitet, just för att synas på så många sökresultat som möjligt. I Ehows fall använde man sig av mycket billiga content writers som fick betalt baserad på hur många besökare artikeln fick och styrning för vilka sökord man skulle skriva artiklar för. Det ledde till mycket snabbt hoprafsade artiklar men med rätt rubrik och titel. I kombination med en mycket stark länkprofil kunde man ta förstaplats på söktermer som ”Hur man dricker mjölk” mycket lätt. Det är inte så många sökningar på den termen men om du tänker dig hundra miljoner sådana termer.

En annan variant var innehåll som helt enkelt var data skuret på olika håll. Tänk tanken att du har två recept, ett på Wienerbröd och ett på källarfranska. Du lägger dem i kategorierna Matbröd och Fikabröd och börjar synas bra på de sökorden. För att få lite mer fart lägger du in båda även i ”Bröd som innehåller Vetemjöl” och ”Bakning” och du börjar synas på dessa också. Du inser snabbt att kategorin ”Bröd som innehåller smör” också är smart och snart lägger du till fler och fler kategorier i vilka du bara sorterar dessa två recept. Varje gång du lägger till en ny kategori börjar du synas på ännu ett sökord. Det här går jättebra till dess att Panda-filtret får nog och kastar ut dig ur sökresultatet (och då räcker det inte bara att backa tillbaka till punkten alldeles innan utan du behöver bygga om din sajt till dess Google och Panda anser den tillföra värde).

Det finns saker filtren inte klarar av att hitta men som Google ändå hatar


Nästa steg är sidor som klarat sig väl både när algoritmen bygger sökresultatet och när filtren körs. Ibland slinker det igenom sådant som Google hatar och då görs en manuell åtgärd. Till exempel vuxet innehåll i sökresultat som inte tydligt bör innehålla sådant. Man tycker illa om det på den nivån att Matt Cutts, den första Head of Webspam Google hade, delade ut hembakta kakor till alla som kunde hitta det i något av sökresultaten.

Ett exempel på manuell åtgärd vi sett är ”Ads Above The fold”. Det finns system för att automatiskt rensa bort sidor som verkar gjorda enbart för att visa annonser men ibland misslyckas Google med det om det inte är tydligt att det är annonser. Ett exempel är en topplista med de tio bästa dammsugarna, där du får betalt för trafik du driver till dammsugarförsäljarna eller vilken försäljning du genererar åt dem. Det är inte alltid tydligt för Google att det här är fråga om annonser men det är något de vill undvika att visa, om inte sidan tillför väldigt mycket i övrigt i form av recensioner och liknande.

Vi har, som nämnt, sett ett exempel när detta manuellt rensats bort ur sökresultatet och Google är då så pass trevliga att de meddelar detta i Search Console. Man får ett meddelande om vad (på ett relativt luddigt sätt) de anser man brutit mot och att de vidtagit åtgärd. Många brukar kalla det här att man blir ”straffad” av Google men Google själva vill inte kalla det straff utan helt enkelt en manuell åtgärd. Om det skulle inträffa behöver man åtgärda problemet och skicka in en reconsideration request, beskriva vad man rättat till och hoppas att den som läser det gillar det man gjort.

Det går alltså att med sämre metoder, footerlänkar är ett aktuellt exempel, tillfälligt ta positioner men för att i ett senare skede falla som en sten. En erfaren sökmotoroptimerare vet detta och man kan mycket väl anse att det är en risk värd att ta. Att tillfälligt hålla positioner på ett sökord man inte annars har möjlighet att ta kan mycket väl vara en lönsam strategi. Det gäller att veta vad man gör däremot och för det krävs erfarenhet.

Ta en titt på videon men ta den med en nypa salt, sådant som ”Google är extremt bra på att hitta spam” är nästan lite lustigt.

Problemet med att ha lärt sig en taktik snarare än att förstå

Allt för ofta sitter sökmotoroptimerare, både amatörer och proffs, fast i en taktik. Man har lärt sig en taktik för att göra sökmotoroptimering snarare än att förstå sökmotorn. Vi ser det här hela tiden. Särskilt när det gäller att lägga till sidor för att synas på en sajt. Stora svenska E-handlare som forcerar fram nya kategorier på löpande band för det ger bra resultat på kort sikt. SEO-specialisten de använder sig av har lärt sig att om man lägger till en kategori för ”Bröd som innehåller smör” och på den sätter rätt titel och rubrik så kommer man börja synas på sökningar som har med smör och bröd att göra. Problemet är att om man använder den taktiken hela tiden så kommer man efter ett tag till situationen där Google helt tappar förtroendet för sajten och man försvinner ur ALLA sökresultat.

Om du har 6 eller 12 månaders erfarenhet av sökmotoroptimering så har du helt enkelt aldrig sett ett filter. Du kanske har köpt dig en sökordsdomän, installerat WordPress med Yoast och dunkat länkar på den till dess du syns och vips tror du att du är en expert på SEO. Det är inget fel på varken WordPress, Yoast eller länkar men det är en fråga om tidshorisont.

Jag har vid ett tillfälle tagit förstaplatser i USA på högkonkurrenssökord med en sajt med fem slarvigt skrivna sidor och footerlänkar från 2.4 miljoner ryska sajter (till en total kostnad av 500 dollar). Det är en taktik som fungerar, och den fungerade jättebra de fem dagarna sajten alls fanns i Googles index.

Fördjupning

Magnus Bråth

VD

Magnus är en av världens främsta sökmotorspecialister och arbetar främst med strategi och ledning på Brath AB. Läs mer om Magnus Bråth.

Magnus Bråths profilsida