Toksyczne linki? Zaplecze rozwiązuje ten problem. Kosztownie, ale jednak
paq-studio

Opublikowano: 2017-06-15 przez: Adrian Pakulski

Toksyczne linki? Zaplecze rozwiązuje ten problem. Kosztownie, ale jednak

Linkbuilding | Zaplecze SEO

Wyczytałeś między wierszami na PiO, że szeptanka na forach nadal działa, bo to jeden z najprostszych sposobów na pozyskanie linków dofollow? Świetnie. Teraz czas odpowiedzieć sobie na jedno za*ebiście, ale to za*ebiście ważne pytanie. Czy link pozyskany z sygnatury albo posta wspominanego forum aby na pewno nie będzie miał negatywnego wpływu na pozycję twojej strony? W końcu tzw. toksyczne otoczenie to nie mit, a fakt.

Z jakiego miejsca mogę pozyskać link, a z jakiego nie?

Nie zdradzę ci wszystkiego, bo ocena tego, w jakim miejscu zostawić link do swojej strony, a w jakim nie to 99% sukcesu każdej prowadzonej przeze mnie kampanii SEO, ale mogę podać ci dwa alternatywne scenariusze.

Scenariusz 1: Historyczna ocena widoczności domeny. Mało precyzyjne i nieefektywne czasowo

Pierwszy scenariusz to ten, w którym zanim pozyskasz link z serwisu, forum albo bloga, bierzesz się za analitykę.

Na jednej karcie przeglądarki trzymasz Senuto, na drugiej Ahrefs.com i na trzeciej Web Archive. Możesz korzystać też z Link Detoxa albo Clusterica, ale nie strzelaj z muchy do armaty. Zależy ci w końcu na względnie satysfakcjonującym tempie pracy, a pozyskując 1 BL co 60 minut, nie dorwiesz się TOP 1 nigdy.

A teraz tak. Senuto wykorzystujesz do analizy widoczności domeny w ujęciu historycznym. Jeśli widzisz, że wspomniane przez mnie wcześniej forum trzyma się względnie stabilnie, tj. widoczność w wynikach organicznych nie siadła jak produkcja przemysłowa w Rosji, to masz już jeden powód do dumy. A jeśli siadła ostro, to albo takie miejsce sobie odpuszczasz, albo analizujesz dokładnie profil linków w Ahrefs.com i sprawdzasz w Web Archive czy spadek widoczności to nie czasem zasługa zmienionej skórki, braku otworzonej sitemapy i 301 w .htaccess.

Dlaczego napisałem, że historyczna ocena widoczności domeny jest nieefektywna? Bo na analizę poświęcisz naprawdę dużo czasu, a jeśli trafisz na miejscówki o wątpliwym statusie, to będziesz się zastanawiał. Pozyskać link czy nie? A jak już pozyskasz, to okaże się, że akurat do ściany przyparł cię administrator, wyciął twój profil z forum, bo nie wpisujesz się w postanowienia regulaminu, które pewnie i powinieneś przeczytać przed dodaniem posta z wszytym linkiem, ale musisz jeszcze odebrać dziecko z przedszkola i umyć auto, bo brudne. Ostatecznie spędziłeś 2 godziny przy linkbuildingu i dodałeś 5 linków. Trochę słabo.

Adrian Pakulski

Poza tym pamiętaj, że utrata widoczności daje tylko pewien pogląd całej skali. Bo teraz wyobraź sobie sytuację, że mam kilka precli, które były mocno pchane jeszcze dwa lata temu, ale algo przyciął je na kilka fraz. Gdybyś przeprowadził analizę widoczności, to z dużym prawdopodobieństwem wykluczyłbyś je z miejscówek o jakimkolwiek potencjale SEO. A prawda jest taka, że filtr algorytmiczny nałożony na tych kilka fraz, które generowały 80% ruchu nie determinuje tego, że domena została oznaczona jako toksyczna (i z drugiej strony – mam przykłady domen, które mają RR za wychodzące, a w SERP’ach korekty na frazach nie było! Czyli domena jest potencjalnym źródłem danych o nienaturalnych linkach, ale wyświetla się wysoko w TOP, czyli budzi zaufanie, a rozdaje filtry ręczne). W praktyce działa to tak, że precelki fajnie żrą SERP’y, ale jednocześnie domeny na jakich stoją nie są specjalnie eksponowane w Googlu (scenariusz w zasadzie idealny, bo domeny, których nie widać w Googlu, a żrą to chyba marzenie każdego SEO’wca).

Za spadkiem widoczności może stać jeszcze mnóstwo innych czynników, jak tymczasowy włam, problem z hostingiem, a nawet domena, która nie była przedłużona na czas i algorytm z jakiegoś powodu nie przywrócił serwisu na pozycje tuż przed tym, kiedy strona zaczęła świecić komunikatem – Ta strona jest niedostępna.

Dużo zależności. Dużo ale.

Scenariusz 2: Filtrowanie toksyczności linków przez zaplecze

Masz zaplecze? Not bad. Możesz wykorzystać je teraz do filtrowania toksyczności linków. A jak nie masz, to zbuduj, bo czasu masz niewiele.

Scenariusz 2 jest procesem, który wymaga już większych nakładów finansowych, ale w perspektywie długoterminowej daje mięsiste efekty i rozsądnie się skaluje.

Zasada jest prosta. Tworzysz 10 serwisów zaplecza technicznego. Każde na innym IP (nie ze względu na bezpieczeństwo, a linkjuice), każde na innej skórce (niekoniecznie RWD i templatce za 50 dolarów) i linkujesz z niego do strony docelowej. Zaczynasz linkbuilding, który dzielisz na miejscówki:

Poziom zaspamowania mierzysz organoleptycznie bez specjalnego wglądu w narzędzia, bo nie ma na to czasu. Jeśli masz przed sobą księgę gości, do której wchodzi po 100 wpisów miesięcznie, z których każdy ma wszyty link do serwisu o pożyczkach gotówkowych, to takie miejsce sobie odpuszczasz. Potem masz forum dyskusyjne, które jest względnie upilnowane, tj. jest szeptanka, ale niekoniecznie ta do środków na potencję w dziale „Budownictwo” – strzelasz stąd do zaplecza.

I teraz klucz. Wpinasz zaplecze do monitoringu na 1-2 frazy (tak, takie zaplecze musi być mniej więcej zoptymalizowane na jakiekolwiek frazy, żeby było widać w ogóle ruch na pozycjach) i sprawdzasz, czy nic złego się z tym zapleczem nie dzieje. Jeśli nagle stwierdzisz, że widoczność jakiejś zapleczówki została ostro przycięta, np. z TOP 20 poza TOP 100, to znaczy, że taka domena dostała prawdopodobnie ręczny, a że w RR bawić się nie będziesz, to odpinasz je (usuwasz z serwera), przenosisz na nową domenę i proces powtarzasz.

W praktyce działa to tak, że zarządzasz 10 serwisami o mocnym profilu linków, nad którymi masz 100-procentową kontrolę. Nie strzelasz na oślep, bo jeśli tylko fragment zaplecza zostaje oznaczony, jesteś w stanie błyskawicznie reagować.

A jak dodać do tego jeszcze dużą ilość ogólnodostępnych, ręcznie przefiltrowanych miejscówek, to siadasz algorytmowi na barana.

 

Adrian Pakulski

Specjalista SEO z 8-letnim doświadczeniem rynkowym, a od 2012 r. właściciel agencji paq-studio, linkbuilder i analityk SEO. Odpowiedzialny za opiekę merytoryczną małych, średnich i dużych marek w wyszukiwarce Google. Absolwent Politechniki Koszalińskiej i Akademii Górniczo-Hutniczej w Krakowie na kierunku Marketing Internetowy.

Sprawdź najpopularniejsze wpisy

Nie, artykuł na 3 tys. znaków z linkiem rel=”nofollow” nie jest Content Marketingiem. SEO a CM to dwa różne światy
DuckDuckGo sromotnie przegrało z Google. Sny o internecie wolnym od szpiegowskich praktyk to zwykła mrzonka
SEO w e-commerce. Jak zbudować poprawną strukturę sklepu i adresów URL?

 

Napisz komentarz

Prostudio

Paq-Studio to wiodąca agencja SEO na polskim rynku. Firma może pochwalić się 5 latami doświadczeń w zakresie pozycjonowania, audytów SEO i konsultacji nowych projektów.

Zleć pozycjonowanie strony

Wspieramy mikro, małe i duże marki.

© Copyrights 2017 PAQ Studio