Nejčastější technické SEO chyby - studie SEMrush

Digichef

Obsah je král, ale bez svých pobočníků a poddaných by neseděl na trůnu dlouho. Můžete mít sebevymazlenější obsah, ale pokud nebude web technicky v pořádku, nikdy s ním ve vyhledávačích nezabodujete. Proto je potřeba se občas podívat i do podhradí a zkontrolovat, zda je vše tak, jak má být. Skvělou pomůckou pro rychlý technický SEO audit webu může být studie SEMrush, která upozorňuje na nejčastější chyby. Takové, které se snadno přehlédnou, ale ve výsledku mohou mít velký podíl na neúspěchu v SEO.

image

Nejčastější SEO chyby

Takže odložme sváteční šaty a pojďme se z nablýskaného trůnu contentu podívat mezi obyčejný lid, do zákoutí, která nesmíme přehlížet, i když si tu možná ušpiníme ruce.

Nejdříve k samotné studii. SEMrush publikuje nejrůznější studie celkem často a rád. Je pravdou, že někdy jsou pro nás, Čechy, více zajímavé, než užitečné, protože nejsou na náš malý trh aplikovatelné. V tomto případě tomu tak ale není a na užitečnosti nijak body neztrácí. Data pochází z 100 000 webů a 450 milionů stránek, které byly prohnány nástrojem Site Audit. I kdyby mezi 100 000 weby nebyl jediný český, z výsledků studie můžeme směle čerpat inspiraci.

Výsledné nejčastější SEO chyby jsou rozděleny do 3 oblastí:

  • Průchodnost pro vyhledávače
  • On-page optimalizace
  • Technické SEO

Část první: Neházejte robotům klacky pod nohy

Pojďme rovnou na první oddíl, tedy průchodnost webu. Obecně řečeno by nám mělo jít vždy o to, zajistit vyhledávačům hladký průchod webem, pozvat je tam, kam chceme a zamknout před nimi dveře, za které by se dívat neměly. Patří sem veškeré prolinkování a přesměrování uvnitř webu, struktura webu, soubory sitemap.xml a robots.txt. Nejčastější chyby?

image

Průchodnost pro roboty je důležitá

Dvě chyby, které SEMrush hodnotí jako závažné, jsou:

  • Nesprávně řešena varianta adresy s www a bez www, kdy existují obě paralelně vedle sebe a navzájem si tak konkurují, byla nalezena u téměř 17 % webů.
  • Příliš dlouhé řetězy přesměrování nebo smyčky by mělo vyřešit 5,49 % analyzovaných stránek.

Studie upozorňuje také na to, že každý čtvrtý web má nějaké chyby v prolinkování nebo přesměrování stránek.

Mezi další časté chyby v tomto oddílu patří

  • Chyby v interním prolinkování (33,29 %).
  • Zdaleka nejrozšířenější nalezená chyba (přes 80% výskyt) je přítomnost stránek, vracejících stavový kód 4xx (zde není největší problém stránka, vracející stavový kód 4xx, ale to, že s ní není dále pracováno).

TIP: Článek o chybové stránce 404 sepsala před časem na blog Lucka a článek o síle interních odkazů sepsal Richard.

Mapu stránek by měl mít každý web. Autoři studie chválí, že 80 % webů ji skutečně nasazenou má, ne vždy ale ve správné podobě.

  • Téměř 11 % webů má v souboru sitemap.xml zaneseny špatné URL,
  • necelých 16 % webů pak mapu stránek sice má, ale neodkazuje na ni ze souboru robots.txt. No není to škoda?

U souboru robots.txt ještě zůstaneme. I zde se často chybuje.

  • V 9,68 % případů nebyl soubor robots.txt vůbec nalezen.
  • 3,69 % má pak v souboru zaneseny špatné příkazy – tuto chybu SEMrush považuje za závažnou. A není se čemu divit, vždyť jednou malou chybou můžete zakázat přístup robotům na celý váš web.

TIP: Soubor robots.txt můžete otestovat v Google Search Console v záložce „Nástroj na testování souboru robots.txt“ '

image

S roboty musíte být za dobře

Na závěr v tomto oddílu upozorňuje studie na chyby v URL. Správná URL adresa by měla být jednoduchá, neobsahovat znaky, které roboti neumí číst, být přiměřeně dlouhá a tzv. „SEO friendly“. V čem se nejčastěji chybuje?

  • Podtržítka v URL adrese používá téměř 20 % zkoumaných webů. Proč je to problém? Google podtržítko ignoruje (na rozdíl třeba od pomlčky). Pokud tedy např. zvolíte URL www.example.com/umistovaci_vystava_kocek, Google ji bude číst jako www.example.com/umistovacivystavakocek a moc rozumu z ní mít nebude. Pokud ale použijete pomlčky www.example.com/umistovaci-vystava-kocek, rázem bude rozumět všem třem slovům zvlášť a také kombinacím - výstava koček, umísťovací výstava apod. Na používání podtržítek upozorňuje sám Google v nápovědě.
  • Necelé 4 % webů pak používají příliš dlouhé URL adresy, což je také negativní faktor pro uživatele, zejména pak chceme-li, aby naši URL někdo sdílel.

Část druhá: Podceňovaná on-page optimalizace

V druhém oddílu se podíváme na nejčastější obsahově-technické chyby na webu. Mnohokrát skloňované téma a přece se v něm chybuje nejvíce. A možná až v překvapivém procentu případů. Jen se podívejte na čísla:

  • 65,88 % duplicitní obsah. Téměř vždy nějaký duplicitní obsah na webu bude. Na každé stránce se např. může opakovat stejné menu, názvy podobných produktů apod. Není tedy cílem dosáhnout 0% duplicity. Každé stránce webu bychom měli zajistit dostatek unikátního obsahu.
  • 73,47 % nízký počet slov na stránce. Zde automaticky vyplývá otázka, jaký že je ten ideální počet slov na stránce? A bohužel, univerzální odpověď neexistuje. V roce 2014 John Mueller na tuto otázku odpověděl tak, že délka textu není tak důležitá, jako kvalita. Objevují se ale studie, které ukazují, že počet slov není tak úplně zanedbatelným faktorem (např. tato studie od HubSpot).
  • A dokonce 93,72 % výskytu hlásí nízký poměr textu k HTML (opravdu jsou stránky, které si unikátní textový obsah nezaslouží?).

Chyby v metadatech jsou také velmi rozšířené. Je potřeba si uvědomit, že metadata jako popisek a titulek, neslouží jen robotům (Google je např. jako hodnotící faktor nezohledňuje), ale zejména lidem, kteří je uvidí ve výsledcích vyhledávání a přímo tak ovlivňují CTR. Stojí tedy za to, jim trochu péče věnovat. Výsledky studie ale hovoří jasně:

  • Téměř 54 % webů neřeší duplicitní meta titulky a popisky.
  • V 63 % případů úplně chybí meta popisek a v 11% chybí titulek.
  • Na 65,5 % zkoumaných stránek se nepracuje s ALT atributem u obrázků.

image

Metadata slouží i lidem!

Část třetí: Technické faktory v SEO

Svět onlinu posledních let je snad nejdynamičtěji se rozvíjející prostředí vůbec. Je potřeba být neustále ve střehu, sledovat trendy, zavádět novinky, posouvat se a zdokonalovat. Zkrátka inovovat, inovovat, inovovat. Pryč jsou doby, kdy nám nevadilo čekat na načtení stránky minutu i více a byli jsme spokojeni, když se vykreslila alespoň půlka obrázku. Dnes chceme všechno hned, není čas ztrácet čas.

A musíme počítat s tím, že takto uvažují i návštěvníci našeho webu. Proto by nedostatečná rychlost webu měla být naší starostí číslo 1. A přece:

  • 23,16 % zkoumaných stránek se načítá pomaleji než by měly. Jaká je ideální doba načítání stránek? Podle SEMrushe je dobré docílit 2 vteřin nebo méně.

TIP: Otestujte rychlost vašeho webu pomocí nástroje od Googlu

image

Rychlost webu by měla být priorita

A když jsme u toho inovování, další častou chybou je lpění na zastaralých technologiích. A není to jen tak, zastaralým technologiím nemusí vyhledávače rozumět, což může způsobit chyby v indexu a slabší hodnocení stránek. Může, nemusí…ale proč to riskovat? U zkoumaného vzorku bylo detekováno:

  • U 0,38 % stránek použití rámů (frames) v HTML a u 5,78 % flashového obsahu (podpora Flashe skončí v roce 2020 a firma Adobe vyzývá ve svém prohlášení autory webů k využívání nových formátů).

Ano, existují - weby bez mobilní verze. Kdo jde s dobou, ale samozřejmě toto nepodcenil, a pro mobilní zařízení už dávno web zoptimalizoval. A kdo jde s dobou ještě trošku rychleji, pořídil si AMP. Co je AMP a pro koho je vhodné, si přečtete v nedávném příspěvku na našem blogu. A i zde se chybuje. U AMP nejčastěji tím, že se zapomene na kanonizaci u AMP stránky (za SEMrush zásadní chyba). U responzivních webů tím, že není správně (nebo vůbec) použito meta tagu viewport, který prohlížeči říká, jak má mobilní verzi zobrazit.

Na závěr samozřejmě odkaz na originální studii SEMrush. A teď hurá na rychlý technický audit vašeho webu, neříkejte, že vás po přečtení nesvrbí prsty.

Obsah je král, ale...

  • Celkový průměr hodnocení: 5.0 z 5
  • 5.0
  • 5.0
  • 5.0
  • 5.0
  • 5.0

22. listopadu 2017