Ruční vyhledávání příležitostí pro získání odkazů je šichta. Jak si jednu část můžete automatizovat? Pro můj workshop na Shopcampu 2016 jsem měl připravenou ukázku, jak velmi snadno a strojově hledat příležitosti nad daty, která už máte. A protože to přímo na workshopu díky technickým komplikacím nevyšlo, slíbil jsem celý postup popsat v článku.
Idea (TL;DR)
Základní myšlenka je prostá. Vezměte adresy webů, o kterých ve vašem segmentu víte, že jsou schopné odkazovat a dokázaly to odkazem na vás. Pak se zeptejte Google, jaké k nim zná podobné weby.
Nástroje a služby
K provedení v rozumném čase budete potřebovat několik nástrojů a služeb:
- Google Analytics (zdarma)
- Google Search Console (zdarma)
- Ahrefs/Majestic (placené)
- Excel (placený) nebo Google tabulky (zdarma)
- Simple SERP Scraper (zdarma)
- URL Profiler (placený, plná verze k testu na 14 dnů zdarma)
Z prvních tří můžete vybrat, nejrychlejší cesta bude s GSC nebo kombem Ahrefs/Majestic.
Postup
Jak jsem uvedl výše, potřebujeme znát weby, které jsou schopné v daném segmentu odkazovat. Kde je najdeme? Míst je několik, stačí si vybrat, které je vám dostupné.
Google Search Console
Předně je to váš odkazový profil. V Google Search Console si stáhnete data o doménách, které na vás odkazují: Návštěvnost z vyhledávání > Odkazy na vaše stránky > Další.
Nezapomeňte si nastavit počet řádků na maximum, což je 500.
Výsledek si uložíme z csv do jednoho sešitu v Excelu nebo Google Tabulek.
Tohle jsou domény, které zná Google. Můžeme předpokládat, že zná skoro každého, kdo na vás odkazuje. Pokud se vám tato cesta nelíbí, nebo nedejbože web v GSC nemáte, poohlédnout se můžeme i na jiném místě. V Google Analytics. Tam jsou data o doménách, které k nám poslaly nějakou návštěvnost.
V podstatě by stačila jedna cesta – vzít data ze Search Console. Google ale – lišák – neukazuje vše, co ví a tak se podíváme jinde.
Google Analytics
V Google Analytics si nejprve nastavte maximální možné období. Poté běžte do reportu Odkazy, který najdete v Akvizice > Veškerá návštěvnost > Odkazy. Jakmile se ukáží data, zvolte počet řádků na maximum.
V těchto datech ale najdete jakýkoliv referral zdroj, takže před exportem je dobré se zbavit těch, které nechcete.Rozuměj, nejsou v SEO na nic. Ideální je vyloučit je pomocí regulárního výrazu v rozšířeném filtru.
Co vyloučit?
- zbožové srovnávače – tady můžete využít regulární výraz z Medio Blogu: ((^|\.)(artikul|b2bc|elektrus|eshop-katalog|foxter|heureka|koupis|mojse|monitor|shoops|taxa|vybereme|zaza|shop\-mania|pricemania|cochces)\.cz)|cen[ayou]|koupe|koupis|levn|naa?kup|obchodu|porovn|setri|shop(y|alike)|slevu|srovn|zbozi|shopalike
- všechny sociální sítě a jejich zkracovače: t.co|facebook|google|linkedin|t.co
- weby spojené s e-malingem: list-manage
- RSS čtečky: feedly|theoldreader|g2reader
- historický rererral spam (regulární výrazy můžete převzít od Lynt)
Moje ukázky berte jako základ, určitě půjdou rozšířit. Co nedokážete odfiltrovat přímo v Google Analytics, budete ručně mazat v Excelu.
Očištěná data exportujte. Výsledek se bude z nějaké části podobat tomu, co už máte z Google Search Console. Pokud jste dělali sběr dat z GSC, uložte si data z GA na samostatný sešit.
Majestic nebo Ahrefs
To samé provedete s daty, které o našem webu má Majestic nebo Ahrefs. Já preferuji druhý jmenovaný. V něm si u vybraného webu zvolte záložku Referring Domains a data exportujte.
Výsledné csv si opět naimportujte do svého hlavního Excel souboru nebo Google Tabulky jako samostatný, už třetí sešit.
Teď je čas sloučit a upravit data. Do nového sešitu svého souboru s daty si nakopírujte pod sebe všechny získané weby. Dejte je seřadit podle abecedy a zbavte se duplicit (v Excelu v záložce Data najdete tlačítko Odebrat duplicity).
Abychom se Google mohli zeptat, jaké zná podobné weby k těm, co máme v tabulce, musíme ke každé adrese přidat vyhledávací operátor related:
V sešitu, kde máme sloučená a neduplicitní data, přidáme před sloupec s URL webů nový sloupec, kam do všech řádků vložíme řetězec related:
Následně pomocí funkce =CONCATENATE sloučíme related: s URL ve vedlejší buňce, takže výsledek vypadá jako related:domena.tld
Jdeme scrapovat
Jak jste nejspíše pochopili, předchozími kroky jsem vlastně vytvořil seznam dotazů pro Google. Výsledkem bude množina webů, které by ve vetší míře měly být relevantní pro odkazovou kampaň.
Jak se ale ptát, abych se nepředřel aby to nebylo nákladné? Řešením je Simple SERP Scraper, který si stáhnete zdarma.
Do něj vložíte (CTRL C – CTRL V) seznam related:doména.tld dotazů, vyberete českou verzi Google, nastavíte počet výsledků na stránce a počet stránek (maximum výsledků v SERP je 1000) a zvolíte hodnotu zpoždění (Delay). Ta je tam proto, že strojové dotazy na výsledky vyhledávání jsou zakázány, a zpoždění tak simuluje běžný provoz.
Vybrat si můžete mezi 15, 30, 60 vteřin nebo náhodně. Pokud máte seznam vlastních proxy serverů, může zpoždění ignorovat.
Pak stačí zmáčknout Scrape a dělat něco jiného. Simple SERP Scraper se sám ohlásí, jakmile bude hotovo.
Voila! Na disku máte csv s weby, které můžete dále prověřit.
Co teď?
Tady by se dalo skončit a mohla by nastoupit stará dobrá ruční práce. Ale i zde si dalším nástrojem můžu pomoct.
Weby na seznamu jsou pro mě zatím jen domény, nic o nich nevím. O čem píší? Je na nich blog nebo fórum? Později na nich budu hledat nějaký kontakt a třeba sociální profily.
Hodně z toho se dá získat automaticky pomocí URL Profileru, do nějž postupně zadám požadavky, o kterých píšu dál a po nastavení odešlu.
Postup s URL Profilerem
Vezměte si CSV soubor, který jste předtím získali a spusťte URL Profiler. V poli URL List klikněte pravým tlačítkem a vyberte Import from file.
Teď vymyslíme, jak si odpovědět na otázky o odstavec výše.
O čem píší? Dobrým signálem je titulek a nadpis H1 na webu, tam přece všichni hustíme to zásadní, že? V URL Profileru na to využijete Custom Scraper v blogu Content Analysis.
Jakmile check box zaškrtnete, vyskočí nové okno, kam můžete zadat až 10 instrukcí pro scraper současně. V souboru na konci práce výsledky najdete ve sloupcích Data 1 až Data 10.
Pomocí XPath selektoru nastavíte, že má scraper hledat značku Title a vybrat z ní vnitřní text. To samé uděláte se značkou prvního nadpisu.
Když bych chtěl vědět, jestli je na dané doméně blog nebo fórum, můžete to opět zkusit scraperem. Pro sběr ale použijete regulární výraz, který bude ve zdrojovém kódu hledat určitý výraz. V našem případě “blog” a “forum” nebo “fórum”.
Pozor, tato cesta nabídne i část falešných výsledků, protože stačí, aby se v nějakém textu hledaný výraz objevil a scraper jej označí. To ale nevadí, nám jde o pravděpodobnost, že na doméně takový obsah je.
Protože regulární výraz dává výsledky ve smyslu ano/ne, tak tam, bude bude výsledek ano, se vám ve výsledném souboru objeví ve sloupci Data 3 slovo “blog” a ve sloupci Data 4 fráze “forum”.
Kontakty
Těžko někoho oslovíte, když nevíte, kam mu napsat. URL Profilem při dotazu na úrovni domény umí adresu navíc. Technicky na to jde tak, že:
- hledá v kódu zmínky obsahující @
- prohledává na doméně URL, kde se takové informace typicky nacházejí (domena.tld/contact).
- Hledá ve Who Is databázi, konkrétně v My-Addr (velmi levná placená služba)
Nevýhodou druhé cesty je, že funguje pouze v angličtině. Ale i spousta webů u nás má tyto “systémové” URL v podobě, kdy je nástroj najde.
Znát účty na sociálních sítích se také hodí, protože při dobrém nápadu můžete vyloudit nějaké to sdíleníčko. Stačí vybrat, že náš zajímají Social Accounts v Domain Level Data.
Další zjistitelné info
Podobně můžete potahat další informace:
- typ stránky – URL Profiler jej odhaduje podle použité CMS
- data o počtu odkazů z Ahrefs/Majestic pro danou doménu
Podle dat o odkazech můžete později třeba prioritizovat svoje cíle.
Co mám na konci?
Jakmile URL Profiler s taháním dat skončí, dostanete obludně vypadající xls tabulku. Nejsnáze ji vylepšíte pomocí funkce Formátovat jako tabulku.
Tímto automatizovaným postupem jsem získal velmi slušné množství domén, které jsou vhodné jako odkazové příležitosti. Díky nástrojům navíc:
- vím, o čem obsahově jsou (filtrujte na úrovni Title a H1)
- tuším, co o jaký typ webu jde (blog, forum)
- na nějakou část z nich mám e-mailový kontakt (ušetřil jsem čas s ručním hledáním)
- s velkou pravděpodobností vím, jestli mají obsahovou nebo diskusní sekci (blog/magazín/fórum)
- znám profily na sociálních sítích
Další postup už je linkbuildingová klasika. Vybrat si ty správné weby, vymyslet, co jim nabídnout, oslovit, ulovit, zapsat a reportovat.
A pecka nakonec, zkuste celé tohle kolečko udělat nad odkazovými daty konkurence;-)
Tak co, jdete si to zkusit?
Vynikajici, diky
No něco podobnýho dělám taky, jen použiji ty podobné domény, které se vyskytují alespoň 2x (tzn pokud je v různých top 10 výsledcích nějaká doména jako related: 2x ). Sníží to procento stránek, který mi jsou k ničemu 😀
Neefektivní drahé a zdlouhavé 🙂 Kdo ví o čem mluvím tak ví, a kdo neví tak …smůla 🙂
Můžeš to trošku rozvést, prosím? Jestli se dají rychleji a levněji najít stovky příležitostí, když na něčem začínám, rád se přiučím.
No ono by to mohlo být rychlé…imho by stačilo uplně vložit jen odkazové portfolio a rovnou dostat tyhle weby. Udělat takový script by nemělo být složité.
Však v článku píšu, že jako jeden zdroj je odkazové portfolio. Problém je, že nástroje jako Majestic a Ahrefs neznají vše, proto je nejlepší vše zkombinovat. Kdo chce zrychlit může tak, že některý zdroj přeskočí, třeba GA.
Tak odkazové portfolio je vše – data ze SC, GA i Majesticu 🙂 nicméně stačí vše jenom stáhnout a očistit až v tom scriptu 😉
Wau hodne dobrý návod a praktický detailne napísaný. Celkom by ma zaujímalo či zrazu sa nevyrúti zopar stoviek webmasterov a bude to takto robiť, alebo či sú nato lenivý 😀