Det finns många sätt att komma framåt i sin SEO. Nästan alla sätt är lite dåliga och idag ska vi titta lite närmare på en metod som nog är lite extra vansklig.
Paul Smecker (Willem Dafoe) är den som sammanfattar det allra bäst i Boondock Saints: “So now we’ve got a huge guy theory and a serial crusher theory”. Det jag vill lyfta idag är att försöka filosofera sig fram till Googles funktion. Det fungerar nästan aldrig.
Om du jobbar i eller nära SEO-branschen så har du säkert mött fenomenet förut, fast du kanske har missat det och jag tror det är lättast att beskriva med ett exempel:
Google kommer med en ny uppdatering och de säger att de prioriterar användarupplevelse. Du sätter dig ner och försöker förstå hur den nya uppdateringen kommer påverka och vilka sajter. Du vet med dig att Google äger Chrome och Google Analytics så du kommer fram till att Google kommer premiera sajter med lång time on site, eller låg bounce rate, eller varför inte med hög konverteringsgrad. Ganska snabbt har du listat ut att det är hög konverteringsgrad som är den viktigaste signalen i den här uppdateringen, för det är ju viktigast för att bedöma hur rätt användaren upplever sidan de skickats till.
Det är en bra teori men problemet är att du har dragit helt fel slutsats.
Anledningen till att slutsatsen nästan alltid blir fel är relativt enkel men kanske svår att ta till sig. Googles algoritm är “dummare” än du tror, eller den är åtminstone mindre mänsklig. Algoritmen kan inte förstå vad som är bra för besökaren, vad den gör är att dra statistiska slutsatser om sajter utifrån relativt förutbestämda regler. Ibland finns ett självlärande element av typen “sajter som har följande element brukar uppskattas av besökare och ska därmed premieras” men allt som oftast är det relativt enkla regler som styr. Det finns en hel massa av dem däremot och det skapar problem, faktiskt är det så att man på Google själva inte vet hur en förändring av algoritmen kommer påverka resultatet. Det är av den anledningen de gör ett “sida-vid-sida” test efter uppdateringar, där riktiga människor får göra blindtest på nya algoritmen jämfört med den gamla och berätta vilket resultat som blivit bäst.
Du kan inte dra slutsatser så
När Google går ut med att de kommer rulla ut en algoritm som kommer påverka på ett visst sätt är det en bra start, det är var du kan börja leta. Vi ska titta på den stora penguin-lanseringen som skakade om hela SEO-världen för det är ett bra exempel på det här:
Google går ut med att de ska lansera ett filter som slår mot “spammiga” länkar, genom att känna igen köpta länkar som oförtjänt påverkar sökresultaten. De har nämligen tagit fram en algoritm som kan känna igen köpta länkar. Mycket riktigt rullas filtret ut och sökresultaten skakas i sina grundvalar. Det dras alla möjliga slutsatser om hur Google förstås att en länk är köpt, många hade panik så det är kanske förlåtet. När man tittar lite närmare på det så ser man att det i huvudsak bara är ankartexter de tittat på. Det är ensidiga länktexter som är den i särklass viktigaste faktorn i filtret. Ingen av de många mer spekulativa teorierna har någon grund i verkligheten utan algoritmen tittar helt enkelt på hur stor andel av länktexterna säger samma ord.
Det är stor skillnad på hur algoritmen Borde fungera och hur den faktiskt fungerar.
Visst finns det undantag
Det finns förstås skäl att teoretisera också och ibland behöver man agera på teorin även om den mest är en kvalificerad gissning. Det är inte så kul att sitta utan intäkter i väntan på bättre data till exempel. Min syn är att det gäller att veta när man ska göra det.