
Adrian Pakulski WŁAŚCICIEL / SPECJALISTA SEO
Jesteś zainteresowany
współpracą?
Przyznam, że nie bardzo wiem, jak powinien nazywać się temat tego materiału. Chciałbym przybliżyć Wam, w jaki sposób eksploatowałem RSS Feed’a do pozyskiwania linków przy budowie serwisów contentowych i jak z tej mechaniki korzystali popularni gracze rynkowi? W tym o2.pl?
Kiedy w 2010-2011 r. uczestniczyłem w budowie jednego z koszalińskich serwisów internetowych i co oczywiste – jednym z typowych sposobów na pozyskiwanie do tego projektu linków było – zaplecze techniczne. I ówczesne zaplecze było podzielone w proporcjach 70 do 30. 70% zaplecza było zapleczem statycznym, pozyskiwanym albo z wygasłych, ogólnodostępnych domen albo subdomen popularnych w tamtych latach aliasów. Statycznym w takim kontekście, że były to zwykłe, typowe serwisy bez aktualizowanych treści. Dobre, bo poza ciągłym pozyskiwaniem linków – niewymagające i dające długotrwałe efekty dla kluczowych z punktu utrzymania stałego ruchu w serwisie fraz. Mowa o frazach np. „wydarzenia Koszalin”, „wiadomości Koszalin”, „praca Koszalin” i podobne.
Tyle tylko, że wbrew satysfakcjonujących wyników, serwis borykał się z problemami indeksacji świeżego contentu. Treści przybywało w liczbie kilku, kilkunastu pozycji dziennie – niby niewiele, ale biorąc pod uwagę, że część z nich było gotowymi materiałami prasowymi, które dziś zakwalifikowałbym jako duplicate content, albo w najlepszym razie near duplicate content, wbicie wszystkich treści w indeks jeszcze tego samego dnia nie było takie oczywiste. A jak pewnie się domyślacie, w serwisach newsowych indeksacja treści jest kluczowa dla pozyskiwania świeżego, „aktualnego” ruchu. Założenia biznesowe uniemożliwiały całkowite pozbycie się tych skopiowanych materiałów prasowych ze względu na koszty operacyjne z tym związane, wobec czego opracowaliśmy na szybko inną strategię.
Na zmianę z ówczesnym wspólnikiem wisieliśmy na skrzynce mailowej serwisu przez większą część dnia tak, aby zyskać argument nazwijmy to świeżości. Zaobserwowaliśmy, że kiedy materiał prasowy nie trafił jeszcze na jeden z konkurencyjnych serwisów newsowych, to po pojedynczym pingu, Googlebot indeksował treść w zasadzie od razu. Długoterminowo okazało się to niemożliwe w procesowaniu. Z kilku powodów – po pierwsze, trudno było w trakcie studiów utrzymać się w ryzach – mieliśmy zajęcia na uczelni, a po drugie – lider rynkowy, nasz główny konkurent pochodził z grupy Polska Press i tak ostatecznie przykrywał nas w wynikach organicznych, ponieważ algorytm pierwszości treści jako taki nie istnieje (więcej o tym posłuchacie w materiale na naszym kanale: „Pierwszeństwo treści”) i nawet jeśli jako pierwsi opublikowaliśmy materiał, lądowaliśmy tuż za nim w SERP’ach.
Wiedzieliśmy, że jeśli nadal chcemy operować na mieszanym contencie, tj. naszym autorskim i wrzutkach prasowych, potrzebujemy linków do wrzucanego przez nas contentu – po 1., aby skrócić czas indeksacji, bo przy duplikatach pingowanie niewiele dawało, 2. wzmocnić startowe pozycje startowe – w tym rzecz jasna też naszych, redakcyjnych, uniklanych publikacji. I tak powstała druga część zaplecza technicznego, ta dynamiczna, w której to eksploatowaliśmy naszego redakcyjnego RSS Feeda. Zasada była – zbudować zaplecze, które będzie po RSS Feedzie zaciągało 10-20 ostatnich linków z naszego serwisu i co oczywiste – mocno je podlinkować. W ten sposób każdy news miałby na starcie kilka do kilkunastu świeżych, lepszych lub gorszych linków. Zaplecze pobierało linki z RSS Feed’a i eksponowało u siebie albo w postaci pojedynczych linków, albo linków site-wide’owych.
I tak tak powstała grupa serwisów – zaplecza na WordPressie, które posiadały swoje, aktualizowane raz na kilka dni treści redakcyjne, przekładane z linkami do serwisu głównego – matki.
Część z nich była prymitywnymi WordPressami, które miały osadzone linki do serwisu matki w sidebarze, tj. link i 100-200 znaków z wypisu, a część przypominała regularne serwisy contentowe ze stronami głównymi, jakie miały mieszane treści. Mówię mieszane treści, bo te bardziej rozbudowane zaplecza pobierały też z RSS Feed’u zdjęcia/miniaturki.
A tego typu mechanikę wpadłem, obserwując ówczesną strategię rozwoju grupy o2.pl. O2.pl przyjęło strategię segmentacji – testowali serwisy contentowe we wszystkich popularnych obszarach – finanse, rozrywka oraz lol content i treści plotkarskie. Inwestowali w serwis, sprawdzali, jak przyjmuje go rynek i decydowali o tym czy dalej w niego inwestować, czy nie. Zdecydowana większość serwisów grupy O2 była zbudowana właśnie w taki sposób – tj. strona główna posiada swoje treści redakcyjne oraz częściowo linki zewnętrzne do mniejszych, zawężonych tematycznie serwisów. Trudno ocenić mi, na ile świadomie O2 decydowała się na taką mechanikę w kontekście SEO, a na ile w kontekście po prostu przepychania ruchu ze stron głównych serwisów matek oraz generowania kolejnych viewsów.
W przypadku o2.pl, serwisy z tej grupy wymieniały się backlinkiem i ruchem wzajemnie; w przypadku serwisu mojego i mojego wspólnika RSS Feed był eksploatowany tylko po to, aby w dynamiczny sposób budować backlink w jednym kierunku – tj. z zaplecza do serwisu matki.
Zwróćcie uwagę, że taką mechaniką posługują się serwisy contentowe do dzisiaj – 80% treści na stronie głównej o2.pl to linki wewnętrzne do treści autorskich tegoż o2.pl, a reszta to linki zewnętrzne do Pudelka, który należy do grupy o2.pl.
W latach 2009 – 2012 r., kiedy obserwowałem rynek serwisów contentowych, podobną strategię przyjęła także grupa zarządzana wtedy przez g7media – w tym papilot.pl, boska.pl, hanter.pl i inne.
Czy emitowanie linków dynamicznych na zapleczu do najnowszych treści, jakie pojawiają się w serwisie matce jest pozbawiony wad? Musicie być świadomi, że jeśli zaplecze wyświetlało linki do najnowszych treści z RSS Feed’a, to każdy kolejny news „spychał” ostatni link z kolejki i efekt był taki, że profilowi backlinku towarzyszyła spora rotacja, jednak biorąc pod uwagę duży zasób stabilnych linków, mechanika okazała się bardzo skuteczna.
Z tego materiału chciałbym żebyście zapamiętali nie całą historię tego, jak budowane były, czy budowane są serwisy contentowe, ale wykorzystywali mechanikę RSS Feeda, czyli nieco zapomnianej już technologii w linkbuildingu. Może warto byłoby wykorzystać RSS Feed’a do pozyskiwania świeżych linków do ostatnio opublikowanych w Waszych sklepach produktów? I to nawet nie w kontekście linkowania z zewnątrz, ale wewnątrz? Sprawdźcie też w WebArchive, w jaki sposób RSS Feed był eksploatowany w serwisie hotmoney.pl, zarządzanym przez grupę O2.pl
Pomysłów i mechanik do tego, jak wykorzystać RSS Feeda jest naprawdę wiele. A teraz kartka, długopis do ręki, flipchart i do pracy.
Tymczasem my widzimy się w kolejnym materiale już niebawem, mówił do Was Adrian Pakulski Paq, cześć.

Jesteś ciekawy wyników współpracy z PAQ-Studio
Dowiedz się jak wygenerowaliśmy:
zwiększonego zasięgu w Google
Od 1 marca 2018 r. do 30 października 2021 r. poprawiliśmy widoczność marki Sklep Łuczniczy z poziomu 129 do 433 fraz sprzedażowych widocznych w Google w zasięgu TOP 1-3.
Ocen: RSS Feed a linkbuilding