Checklist základů SEO
Tento text je výňatkem z e-booku “Checklist hlavních SEO faktorů současnosti“, který jsem sepsal v roce 2021 za působení v digitální agentuře Taste.cz. V případě potřeby jsem některé informace aktualizoval k současné realitě roku 2024.
Co je to SEO?
Termín SEO (Search Engine Optimization) je v češtině znám jako optimalizace pro vyhledávače či optimalizace nalezitelnosti na internetu. Cílem SEO je zvyšování viditelnosti webu ve výsledcích vyhledávání (jako např. Google či Seznam) na taková slova, která lidé aktivně vyhledávají.
České formulace tohoto oboru nejvíce rozšířil Marek Prokop, legendární evangelizátor SEO v České republice.
Z hlediska businessového – SEO stejně jako ostatní marketingové kanály (PPC, e-mailing, affiliate atp.) přivádí na web potenciálně nové zákazníky a podílí se tak na celkovém obratu firmy.
Ve zkratce se dá říct, že optimalizace pro vyhledávače má za cíl dostat daný web a jeho jednotlivé stránky ve výsledcích vyhledávání na co nejvyšší pozici. Ovšem nutno podotknout, že se bavíme v rámci vyhledávaného či businessově důležitého klíčového slova nebo fráze pro daný web. První pozice na klíčová slova, která nejsou vyhledávaná anebo nejsou relevantní k tématu stránky, jsou prakticky k ničemu.
Co má vliv na pozice v SEO?
Na umístění webu ve výsledcích vyhledávání má vliv řada faktorů, např. pro Google jich v různých aktuálních i starších přehledech najdete asi dvě stovky. Na základě těchto faktorů vyhledávače řadí výsledky ve svých výsledcích. O téměř všech aktuálních SEO faktorech se můžete dočíst v aktualizovaném článku Briana Deana (Backlinko.com).
Členění e-booku „Checklist hlavních SEO faktorů současnosti“
Publikace je strukturou řazena do pěti ucelených částí. První část e-booku tvoří checklist základů SEO, kde se zabýváme základními nástroji a nastaveními, které tvoří předpoklad pro úspěch ve světě vyhledávačů. Další kategorií je checklist technického SEO, kde se zaměřujeme např. na bezpečnost, rychlost či odkazování uvnitř webu i vně.
Třetí kapitola je věnována problematice klíčových slov, dále v e-booku najdete on-page checklist, který pokrývá téma obsahu a UX a poslední kapitola je věnována off-page checklistu, kde řešíme téma linkbuildingu.
Cílem publikace je představit problematiku SEO primárně lidem, kteří o SEO už sice slyšeli, (např. majitelé webů, e-shopů) ale pořád nemají ucelenou představu o tom, co vše tato disciplína obsahuje a co do ní spadá. Pro SEO specialisty slouží e-book spíše jen jako checklist získaných znalostí.
Checklist základů SEO podrobně
Níže naleznete body z checklistu základů SEO:
Obsah stránky:
ToggleNastavte Google Search Console
Google Search Console je „must-have” SEO nástroj, který vám poskytuje neocenitelný přehled o výkonnosti vašeho webu. Získané množství údajů můžete použít hlavně pro zvýšení organické viditelnosti. A jelikož je nástroj od Google poskytován zcela zdarma, proč toho tedy nevyužít?
Ukázka rozhraní Google Search Console
Určitě byste měli pravidelně sledovat, zda nedošlo k penalizaci vašeho webu ve vyhledávači Google. Tyto zákazy jsou ovšem vzácné a jsou aplikovány většinou na weby, co využívají tzv. black-hat SEO praktiky.
Nastavte Google Analytics
Bez správných údajů nemůžete činit správná rozhodnutí. Google Analytics je bezplatný analytický nástroj poskytovaný společností Google, který vám umožňuje prohlížet data a statistiky o tom, kolik lidí navštěvuje váš web, kdo jsou tito lidé a jak se chovají na vašem webu.
Ukázka rozhraní Google Analytics 4
Doporučuju propojit službu Google Search Console s nástrojem Google Analytics pro získání detailnějších informací ohledně výkonu vašeho webu.
Soubor sitemap
Co je to sitemapa?
Účelem souboru sitemap je pomoci vyhledávacím botům nalézt URL adresy stránek webu, u kterých si přejeme, aby byly zaindexovány. Jde pouze o seznam adres URL, které definují hlavní obsah vašeho webu, aby bylo zajištěno, že bude procházen a indexován.
Soubor Sitemap prozradí botům, které stránky považujete za důležité a také poskytuje cenné informace (např. kdy byla stránka naposledy aktualizována).
Jak má sitemapa vypadat?
V sitemapě správně zpracovaného webu by se měly objevit výhradně přímé odkazy na URL stránky, které vrací HTTP status kód 200 (stránka existuje), ale rozhodně ne 301 (trvale přesměrováno), 404 (nenalezeno) či 500 (chyba serveru).
V souboru sitemap by se měly vyskytovat skutečně jen unikátní stránky, nikoliv duplicity. Také sem nepatří vedlejší stránky s nastavenou kanonizací (pojem kanonizace si vysvětlíme v dalších kapitolách) na jinou primární URL a taky stránky s parametrem „noindex”.
Speciální výjimkou může být vytvořit záměrně takovou sitemapu, kde budou obsaženy jen URL s parametrem „noindex”, aby byly přednostně navštíveny roboty vyhledávačů. A důvod proč? Pokud jsou takové URL stále zaindexovány a my je chceme hromadně deindexovat, tímto způsobem to můžeme urychlit.
Google podporuje řadu různých formátů souborů sitemap, ale formát XML se používá nejčastěji. Obvykle najdete soubor sitemap svého webu na adrese: https://www.example.com/sitemap.xml.
Sitemapy a redakční systém WordPress
Je také možné mít více sitemap obsažených v jedné hlavní sitemapě, např. známý WordPress plugin Yoast SEO většinou vyexportuje sitemapu v podobě jako např.: https://backlinko.com/sitemap_index.xml.
Příklad sitemapy vygenerované WordPress pluginem Yoast SEO. Zdroj: Backlinko.com.
Podobně to umí i jiný SEO plugin pro WordPress, např. Rank Math SEO, jehož podoba se o moc neliší od Yoastu, viz níže:
Příklad sitemapy vygenerované WordPress pluginem Rank Math SEO. Zdroj: Manuelnunez.cz.
Jakmile vygenerujete soubor sitemap, ujistěte se, že je odeslán do služby Google Search Console. Nezapomeňte také správně odkazovat úplnou absolutní adresou včetně správného protokolu na soubor sitemap v souboru robots.txt.
Většinou se používá označení: „Sitemap: https://example.com/sitemap.xml” viz níže:
Příklad sitemapy umístěné v souboru Robots.txt
Soubor robots.txt
Co je to robots.txt?
Zjednodušeně řečeno, soubor robots.txt říká nejen (ro)botům vyhledávačů, ale třeba botům instant messaging platforem nebo reklamním botům, které stránky, soubory, adresáře, složky či parametry mohou či nemohou boti procházet.
K čemu se soubor robots.txt používá?
Soubor robots.txt se nejčastěji používá k zabránění procházení určitých částí webu ze strany robotů vyhledávačů. Důvodem je šetření tzv. crawl budgetu, tedy metriky, která značí objem URL, který je schopný vyhledávač projít za určité období pro předání k indexaci a přiřazení pozic. Je tedy nutné zajistit, aby byly indexovány pouze nejdůležitější stránky webu.
Pro jaké typy stránek robots.txt nastavit?
Zákaz procházení (pokud již nejsou zaindexovány) se tedy dá nastavit pro stránky typu:
- Dočasné stránky a soubory
- Stránky administrace (např.: na WordPressu složka */wp-admin/)
- Stránky s košíkem a rekapitulace objednávky.
Stránky s výsledky interního vyhledávání - Stránky s parametry, které nemění smysluplně obsah stránky a tvoří tak duplicitní URL
Příklad souboru robots.txt
Výsledný soubor pak může vypadat následovně:
User-agent: *
Disallow: /vyhledavani/*
Disallow: /en/vyhledavani/*
Disallow: /b2c
Disallow: /facebook
Disallow: /google
Disallow: /basket
Disallow: /*?form=reply
Disallow: /*?reviewNewPost=
Disallow: /*?&reviewNewPost=
Disallow: /*?presentationPopup=
Disallow: /*?&presentationPopup=
Disallow: /*?discussionReply=
Disallow: /*?&discussionReply=
Disallow: /*?parameter_id
Disallow: /*?categories*
Disallow: /*?order=*
Disallow: /*?&snp
Disallow: /*?currency=
Disallow: /*?labels
Disallow: */gdpr/*
Sitemap: https://www.example.com/sitemap.xml
Lze robots.txt otestovat před ostrým nasazením?
Soubor robots.txt si můžete i otestovat skrze službu od Google Search Console na testování souboru robots.txt nebo pomocí obdobného nástroje
od Technicalseo.com.
Používejte robots.txt spíše opatrně
Pomocí zákazu procházení určitých částí webu v souboru robots.txt ovšem nedocílíte deindexace a zákazu zobrazování vybraných stránek a souborů na stránkách výsledků vyhledávání (známo taky jako SERP z anglického „Search engine results page”) jednotlivých vyhledávačů.
Více se o tomto tématu dočtete na blogu Digichef: „Robots.txt neslouží k zákazu indexace stránek”.
Indexovatelnost webu
Cílem autorů webu je pomoci robotům vyhledávačů najít co nejvíce originálního obsahu, aby jej vyhledávače mohli zařadit do svého tzv. indexu a následně do výsledků vyhledávání. Neindexování obsahu webu je častým problémem, kterým čelí majitelé svých webů. Důvodů, proč se tak děje je řada a mají své příčiny.
Někdy to může být opomenutím ohledně neodstranění direktivy noindex v hlavičkách stránek, někdy se dokonce „poštěstí” ponechat zákaz procházení celého webu či podstatné většiny stránek webu v souboru robots.txt. To se děje např. před spuštěním webu, kdy si nepřejeme, aby roboti vyhledávačů procházeli stránky před spuštěním. Po spuštění webu je ovšem nutné zákaz procházení odstranit.
Dalším důvodem může být neexistence či špatně nastavená kanonizace webu, kdy se např. mohou indexovat různé varianty produktu lišící se velikostí, barvou, ovšem hlavní adresa produktu zůstává neindexovaná. Právě tato stránka by měla být kanonická a indexovaná vyhledávači.
V neposlední řadě může být na vině neindexace duplicitní či nezajímavý obsah na webu, který roboti vyhledávačů budou v lepším případě ignorovat, v horším případě, pokud kopírujete obsah z jiných webů, vás může dokonce i penalizovat.
Ukázka kontroly indexace stránek pomocí nástroje Marketing Miner
Nástrojů, které pomohou odhalit neindexované stránky webu, je celá řada. V prvé řadě doporučíme již zmiňovaný Google Search Console, poté můžeme využít placené nástroje jako např. Screaming Frog SEO Spider (dále jen Screaming Frog) či český nástroj Marketing Miner.
Nainstalujte a nakonfigurujte SEO plugin
Pokud používáte CMS, nejrozšířenějším je WordPress, měli byste si určitě nainstalovat a nastavit vhodný SEO plugin, který zajistí, které typy stránek se budou objevovat v sitemapě webu, jakou podobu budou mít titulky webu atp.
Vhodný SEO plugin je např velmi známý Yoast SEO. Tento plugin hodně pomůže jak v oblasti technického SEO, tak v optimalizaci meta titulků a popisků. Dalším významným pluginem pro SEO na WordPressu je již zmiňovaný Rank Math SEO.
Ukázka rozhraní WordPress pluginu Rank Math SEO
Pokud používáte jiné CMS než WordPress, např. Joomla nebo vlastní, upravené na míru atp., pobavte se se svými vývojáři, zda vůbec potřebujete instalovat SEO plugin či modul, protože stávající backend může nabízet odpovídající možnosti již v základu.
Pokud používáte český Shoptet, vybrat si můžete z bezplatného základního SEO nastavení či placeného pokročilého SEO modulu.
Zdroj obsahu: E-book: Checklist hlavních SEO faktorů současnosti. Dostupné na adrese: https://taste.cz/checklist-hlavnich-seo-faktoru-soucasnosti.
Zajímate se o SEO a potřebujete pomoc odborníka? Napište mi
Pokud jste se dočetli až sem a zaujal vás můj obsah, moc děkuji. Pokud potřebujete pomoc se svým SEO, neváhejte se mi ozvat. Buď skrze kontaktní informace na stránce kontaktů nebo rovnou skrze níže přiložený formulář.
Autor
Jmenuji se Manuel Nuněz a jsem SEO konzultant a specialista na volné noze, již 11 let mě baví svět online marketingu a 7 let aktivně oblast SEO.
View all posts