Blogg & Insikter

För mycket innehåll – Ett allt vanligare SEO-problem

Det är med ett tungt hjärta jag skriver dessa rader men jag känner att jag måste. Allt för ofta ser jag att man gått för långt i publicerande av innehåll. Förmodligen är det ett resultat av SEO-byråers och SEO-konsulters välmenande råd.

Mer innehåll är inte bättre, inte alltid i alla fall. Om du tror motsatsen skulle jag vilja påminna om Demand Media. När Panda-uppdateringen slog till och fullständigt kollapsade företagets affärsmodell fick man kapa stora delar av innehållet för för att klara sig vidare. Lite spännande läsning om Demand Media hittar du här. Det förhåller sig nämligen så här; mer innehåll är bättre till dess det inte är det.

Gränsen för när ditt innehåll är skadligt

För varje sida du lägger till på din sajt ökar du möjligheterna att fånga trafik från Google. Varje sida är en möjlighet och den som vill skala upp inser snabbt att om man öser på med fler sidor så ökar man snabbare än den som inte gör det. Det finns tre egenskaper som sätter gränser för detta.

Kvaliteten på innehållet

Om ditt innehåll är läsvärt, fylligt och välbesökt kommer det ta en längre stund innan du når gränsen för när du förlorar på att publicera mer. Man kan ställa sig frågande till vissa artiklar på Wikipedia men i det stora hela, ur Googles perspektiv, är innehållet så pass värdefullt att man låter sajten ha topplaceringar på ett enormt antal sökord. Det är inte bara den faktiska kvaliteten på innehållet utan hur innehållet kan uppfattas som spelar roll. Hur lika dina sidor är spelar in ordentligt här, är de snabba omskrivningar av varandra är det läge att se upp.

Auktoriteten på sajten

Om sajten är väldigt stark i sökmotorns ögon, Wikipedia kan få vara ett bra exempel igen, kommer du undan med mer. En sajt med stora mängder auktoritetslänkar in kommer kunna ranka med fler sidor i fler sökresultat. I mångt och mycket gäller det här allt inom sökmotoroptimering, om man har stor auktoritet kommer man undan med mer.

Den faktiska mängden

Den sista och mest komplexa egenskapen är den faktiska mängden. Det är svårt att sätta en siffra men en sajt med fem sidor kommer nog aldrig få problem. En sajt med hundra miljoner sidor kommer med största sannolikhet få det. Det första problemet du kan lägga märke till här är intern kannibalisering, en sämre artikel får ibland ranka i det sökresultat där du egentligen vill ha en annan. Ofta kan det visa sig i väldigt svängiga positioner på det specifika sökordet.

Det finns anledning att inte gå överstyr med sitt innehåll, jag har sett otaliga bra sajter åka på stryk för att man inte slutat i tid. Bli inte girig. Att städa upp en sajt kan vara mycket mer komplext och tidskrävande än att göra rätt från början.

Magnus Bråth

VD

Magnus är en av världens mest välrenommerade SEO-specialister och arbetar främst med strategi och ledning på Brath AB.

Magnus Bråths profilsida

2 kommentarer

    Hej Magnus,
    skulle man kunna anta att så länge Google rankar dina ”dåliga och tunna” sidor kan man avvakta? En ”mycket tunn” sida kan ju faktiskt vara helt klockren, för besökaren?

    Svara

    Jag skulle ta det lugnt i sådana fall, oftast åtminstone. Är det enstaka sidor dessutom så är det knappast något att oroa sig allt för mycket över.

    Svara

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *