Att göra SEO är att leva med risk, oavsett om du gör lite, mycket, ingen eller mest sökmotoroptimering så kan Google välja att plocka bort din sajt från sökresultaten. Därför behöver du vara medveten om vilka risker du tar.
SEO är mycket mer komplicerat idag än det var för några år sedan och alla är kanske inte medvetna om vilka risker olika element inom sökmotoroptimering innebär. Vi har därför försökt sätta ihop en värdering utifrån vår bästa förmåga över hur riskfylld varje enskild aktivitet eller åtgärd är. Det finns förstås många olika åsikter om det här och det är mer eller mindre omöjligt att sätta en exakt siffra, hur stor är till exempel sannolikheten att någon på Google ser att du har en dold huvudrubrik och sätter en manual action för det? Det var brasklappen, här kommer listan.
För mycket annonser “above the fold” – risk 2 av 5
Med jämna mellanrum petar Google manuellt (med vad de kallar manual action) ner sajter med för stor andel annonser på det som syns på sidan utan att du scrollar. Om du behöver ta dig nedåt en bit för att komma åt det egentliga innehållet för att det är för mycket annonser tar du helt klart en risk. Ett riktvärde kan vara att det inte ska se ut som Googles sökresultat då de har väldigt mycket annonser “above the fold”.
Dolt innehåll på sidan – risk 2 av 5
Förr var dolt innehåll (som fanns där bara för att kunna ranka bra) något som Google slog ganska hårt mot. En huvudrubrik som innehåller sökordet och som inte visas eller ett textblock som dolts kunde ge ganska ordentliga smällar på positionerna om de upptäckte det. Nu är de duktiga på att automatiskt sortera bort det innehållet varför risken minskat något. Allt som oftast räknas det varken till eller från. Här finns en undersökning vi gjort om innehåll dolt bakom flikar.
Inlänkar sitewide – risk 4 av 5
Länkar från alla sidor på en sajt har i och med Googles pingvin-uppdatering blivit något som ökar risken mycket. Det första man gör när man plockar en sajt ur pingvin-filtret är att se till att rensa bort just alla sitewide-länkar. Om det dessutom är i kombination med att länkarna har en länktext som matchar sökordet och en dålig placering på sidan (till exempel footer) är det här en fälla. Det går att ta lite snabba positioner men risken skjuter i höjden som en raket. Det här är en av de attribut på en sajt som vi upplever ökar risken allra mest och något vi är mycket noga med att undvika själva.
Inlänkar med exakt ankartext – risk 3 av 5
Exakt ankartext är när länken länkar med exakt det sökord du vill synas på. Det här var förr den allra bästa vägen framåt om du ville ta snabba positioner men nu är det riktigt riskfyllt att inte vara försiktig med exakta match. Det är främst i kombination med andra risker som det blir farligt, sitewide-länkar med exakt ankartext eller exakt ankartext i länkkataloger blir genast riktigt farligt. Mer läsning om länkar och ankartexter.
Länkkataloger – risk 2 av 5
Länkkataloger är faktiskt något vi upplever minskat i risk, under förutsättning att du inte har exakt ankartext. Vår bild av det är att Google mer eller mindre bara struntar i dem. Det finns tillfällen då en katalog kan vara bra men vi skulle aldrig använda annat än varumärke som länktext längre. En av de lustigaste saker vi gjort de senaste åren (och det är bra SEO också), vi köpte KTHNOC.se.
Länkar från bloggare – risk 2 av 5
Konstigt nog är länkar från bloggare en relativt hög risk (och något som är svårt att kontrollera). Många av de stora svenska blogghotellen har haft stora problem med Google och de allra flesta bloggarna är i Googles ögon sajter med låg kvalitet. Om du får väldigt mycket länkar från bloggare, om du har samarbeten eller sponsrar bloggare innebär det en ansenlig risk. Sanningen är att en stor del av de filter och manuella straff vi sett på senare tid kommer från samarbeten med bloggare på ett eller annat sätt. Det betyder inte att det i sig är dåligt med bloggar, bara att man behöver veta vad man gör när man ger sig i kast med dem.
404:or – risk 3 av 5
Att en enskild sida som svarar 404 tappar sin position är självskrivet men ett stort antal 404:or på din sajt kan göra att Google tappar förtroende på det stora hela. Det här är något som inte heller är lika farligt som förr men du ska utan tvekan hålla ögonen på de felmeddelanden du får i Webmaster Tools. Många 404:or ger en riktigt hög risk för att du tappar riktigt många positioner. Så hittar och åtgärdar du 404:or med trafik.
301:or – risk 2 av 5
301 är i sig inget farligt, som det mesta i den här listan, men om du använder dem aggressivt skjuter risken i taket. Att köpa en konkurrent och göra en redirect till sin egen sajt var förr en väldigt elegant väg framåt men det är inte lika guldkantat längre. Var försiktig och noga med dina 301 redirects.
Duplicerat innehåll – risk 2 av 5
Duplicerat innehåll (duplicate content) är en lömsk fara för det är inte alltid så tydligt att det är problemet och det är inte alltid originalet som står sig. Stora mängder duplicerat innehåll kan skapa stora problem för hela sajten på ett sätt som inte är så tydligt, du kan tappa några positioner på allt snarare än att helt försvinna. Jämför med specifika fall där Google bedömer en artikel som duplicerad och den ibland försvinner helt.
Indexering av sökresultat – 4 av 5
Det här är en av de allra mest riskfyllda aktiviteterna man kan ta sig för på sajten. Det har alltid varit något Google tyckt riktigt illa om, något de ofta beskrivit som webspam och på senare tid har de blivit mycket hårdare mot det, särskilt i samband med Panda. Det är en metod att snabbt öka antalet landningssidor på en sajt som mindre nogräknade sökmotoroptimerare använt sig av, det ger nämligen möjlighet att under de månader sajten överlever ta positioner på många fler ord (då det finns många fler landningssidor). Eftersom det är nästan helt utan ansträngning att skapa miljontals sidor användes det, ofta på slit och släng sajter för att driva mycket trafik ett kortare tag. Nu reagerar Google däremot snabbare och avkastningen på risken blir för de allra flesta allt för liten.
Väldigt många sidor – risk 3 av 5
Väldigt många sidor är i sig inte ett problem, Wikipedia till exempel kan nog inte sägas ta särskilt hög risk. Ofta kommer mängd att innebära att kvaliteten på de enskilda sidorna går ner däremot (till exempel som med sökresultat i exemplet ovan) och det är vad som aktiverar pandafiltret. I kombination med att det är mycket svårt att ta sig ur filtret bedömer vi risken till 3 av 5 eftersom effekten om det slår till är så stor.
Dåligt språk – risk 1 av 5
Dålig grammatik, felstavade ord eller gott om svordomar (!) är något som inte uppskattas av sökmotorer. I engelskspråkiga länder är det här ett större problem än det är i Sverige, det är tydligt att Google är mycket sämre på att förstå svenska. Det är fortfarande värt att tänka på däremot. Under sommaren 2021 gjorde Google stora ändringar i hur man läser och rankar baserat på språket.
Väldigt hög länktillväxt – risk 3 av 5
Att under ett kort tag få väldigt mycket länkar var något som förr var en garanti för att sajten ramlade raka vägen ner i det mörkaste av hål i sökmotoroptimeringens läskiga skog. Vår bedömning är att Google inte är alls lika känslig längre och att väldigt mycket länkar under en kort tidsperiod ses som något mycket mer naturligt nu än då. Det kanske inte ger långsiktiga resultat på samma sätt som om länkarna kom under ett större tidsspann men det är alls inte lika farligt som det var för 3-4 år sedan.
Canonical – risk 2 av 5
Canonicaltaggen har utvecklats från att vara ett ganska dåligt verktyg inom sökmotoroptimering till att vara ett något bättre och dess effekter är starkare nu än tidigare. Det gör också att risken ökar för om du pekar fel kan alla möjliga konstigheter uppstå. Tester som gjorts för att simulera att någon råkat peka canonical på alla sidor på sajten till startsidan har helt enkelt fått hela sajten avindexerad (utom startsidan) och därmed alla positioner tappade. Andra fel i taggen kan ge helt andra egenskaper och det är en av de taggar vi kontrollerar allra först om någon kommer till oss med ett problem.
Pressreleaser och artikelkataloger – risk 2 av 5
Google gick nyligen ut och varnade för pressreleaser och artikelkataloger men vi ska komma ihåg att bara för att Google varnat för något så blir det inte automatiskt det farligaste inom sökmotoroptimering. Det du behöver akta dig för är allt för aggressivt länkande i pressreleaser och artikelkataloger. Håll dig borta från exakta ankartexter även här. Google kan återigen få stå som varnande exempel, gör som de säger och inte som de gör.
Tunn affiliate – risk 3 av 5
En av de saker Google själva pratar om internt är så kallade “tunna affiliates” som ett skäl för att sparka ut en sajt ur sökresultaten med manual action (någon på Google petar manuellt bort den). Med det här menar de då en affiliate som inte tillför något värde. Värden kan vara lite olika saker, bra reseguider som är affiliates till hotell och flyg är förstås ett värde, en vettig prisjämförelse också ett. Det här betyder alltså att affiliates måste arbeta extra på sitt innehåll och därför sätter vi risken till 3 av 5.
Footerlänkar – risk 2 av 5
Footerlänkar var förr en av de länkar med allra högst risk men vi bedömer att risken minskat något de senaste åren, kanske för att det sällan är några som är så dumma att de sätter sökord i ankartexten numer. Ofta verkar det som att Google helt enkelt nedvärderar länkarna så att det i sig inte är någon större risk annat än att länkarna inte räknas. Akta dig för ankartext däremot.
Footerlänkar från sina kunder – risk 4 av 5
Vi upplevde att den här punkten behövde få en egen förklaring. Det är nämligen så att risken med footerlänkar kan accelerera av olika skäl och en sak Google tycker verkligt illa om är SEO-bolag som får länkar från sina kunder. De har lite liknande känslor inför plattformsleverantörer av olika slag som webshoppar, bloggar med mera men inte alla i samma utsträckning. Google varnar ganska skarpt för det här och har valt att fetmarkera det i sin beskrivning av sökmotoroptimering. Jämför med till exempel garanterade placeringar från SEO-bolag eller bolag som säljer falsk trafik som bara nämns i slutet under rubriken “Vad bör jag i övrigt se upp med”.
Bloggkommentarer – risk 3 av 5
Bloggkommentarer som ett sätt att få uppmärksamhet är en balansgång. Bra och vettiga kommentarer på bra och vettiga bloggar är något som kan få dig att förbättra dina positioner. Tyvärr är dåliga kommentarer på dåliga bloggar det också men då med en betydligt högre risk. Det är heller inte så lätt att sätta en exakt gräns för när det görs i för stor skala, väldigt sociala bloggare kommenterar hur mycket som helst och alla uppskattar bra kommentarer, även Google. Länken är däremot av det slaget att du själv kontrollerar den och det är en anledning att Google åtminstone vill minska dess värda. I kombination med att det finns enorma mängder bloggspam har det fått Google att vara på sin vakt när det gäller bloggkommentarer och det bör du också vara – särskilt om det levereras som tjänst.
Användargenererat innehåll – risk 2 av 5
Användargenererat innehåll är både en välsignelse och ett straff. Du kan få stora mängder relevant och bra innehåll som talar om aktivitet och engagemang vilket är toppen. Tyvärr bryr sig användare sällan om din sökmotoroptimering och har inga som helst problem att ställa samma fråga som någon annan gjort för ett år sedan även om det skapar förvirring hos Google med två likadana landningssidor. Så länge du inte vill skicka dem på språkkurs eller kräva en viss mängd text så riskerar du också att få massor med tunna sidor med dålig grammatik något som mycket väl kan få olika filter att slå till. Google har ett visst överseende och har lärt sig att känna igen till exempel forum men det finns likväl en risk.
Lansera ny sajt – risk 5 av 5
Det kanske förvånar lite men en ny sajt är det som allt som oftast innebär den allra högsta risken. Det är nämligen inte filter eller manuella åtgärder som är den vanligaste orsaken till att man tappar positioner, från vad vi kan se, det är tekniska problem. En sajt som lanseras utan att man är riktigt på hugget när det gäller sökmotoroptimeringen kan ställa till med riktigt svåra problem. En ny struktur för sökvägarna kan ställa till problem av katastrofal skala för riktigt lång tid framåt.
Största risken inom SEO
Vi skulle vilja avsluta med det som allt för ofta ligger bakom problem med sökmotoroptimering, till exempel när du lanserar en ny sajt. Det är att du väljer att göra saker som påverkar sökmotoroptimeringen utan att tänka på sökmotoroptimering. Ingen SEO är farlig SEO. Det är lätt att tro från den bild Google och en del föreläsare ger att så länge du har huvudet i sanden finns ingen fara. Sanningen är att det är ett av de allra farligaste beteenden du kan ha, du behöver känna till hur sökmotoroptimering fungerar om du driver eller vill driva trafik från sökmotorer. Allt annat är att gå genom ett minfält med förbundna ögon.
Magnus Bråth
Det är många delar i din kommentar som behöver diskuteras, jag försöker spalta upp dem i ordning här:
Användargenererat innehåll. Google har infört en särskilt mark up som kan visa för sökmotorn att det är användargenererat och inte lika tillförlitligt som det vanliga innehållet på sajten. Det är i paritet med sponsrat innehåll. Läs mer om det här: https://brath.se/googles-nya-lank-attribut/
Annonser Above The Fold är tveklöst något Google ser som en negativ faktor, oavsett hur man gör själv. Det händer både att man algoritmiskt sänks och man kan få en manuell åtgärd baserat på detta.
Blogglänkar, jag gissar att du kanske idag ändrat inställning till dessa. Annars så skulle jag vilja säga att det finns anledning att vara försiktig.