Adrian Pakulski WŁAŚCICIEL / SPECJALISTA SEO
Jesteś zainteresowany
współpracą?
Każdy nowy artykuł powinien mieć 2 tys. znaków, nasycenie słowa kluczowego w formie nieodmienionej na poziomie 10% i co drugi wyraz wytłuszczony <strong>’iem. No nie! Tego nie chce ani użytkownik, ani tym bardziej – silnik wyszukiwarki. Ja jestem Adrian Pakulski, a ty jesteś na kanale poświęconym SEO. Jak napisać dobry artykuł pod SEO? Jedziemy.
Kontekst
Zacznijmy od tego, że nie istnieje uniwersalna instrukcja, która pozwalałaby na wypuszczenie jej w formie poradnika how-to, jaki moglibyśmy rozesłać do wszystkich naszych Klientów. Nie ma prawd objawionych, a każde zapytanie do wyszukiwarki jest inną „przestrzenią” do zagospodarowania, innym kontekstem pod względem semantycznym.
Jasne – byłoby dobrze, gdybyś zdawał sobie sprawę, że kiedy piszesz opis kategorii pod frazę „buty męskie”, to kiepskim pomysłem będzie posługiwanie się w nim zwrotami „jakie buty męskie wybrać?”, bo tego typu opis może kanibalizować odpowiedni wpis na twoim blogu, ale to nie jest tak, że jako agencja jesteśmy w stanie przygotować dla ciebie uniwersalną instrukcję, że dla wszystkich zapytań, jakie interesują naszego Klienta, wystarczą powiedzmy 3 tys. znaków i zagęszczenie frazy exact’em na poziomie 5%. To trochę mało.
Dziś coraz częściej pracuje się w modelu SEO data-driven, czyli strategii, która nie bazuje na intuicji seo’wca, jego przekonaniach, a mniej lub bardziej usystematyzowanych danych. Przykładem tego typu narzędzia jest polski Surfer SEO – oprogramowanie, dzięki któremu możesz zbadać otoczenie konkurencyjne w kontekście tego, kto zajmuje jaką pozycję i przy jakiej „jakości” treści. Surfer bada bowiem m.in. liczbę znaków, powtórzenia exact matchowe, tzw. partial keywords, zawartość above the fold, nagłówki porządkowe oraz wiele innych składowych . Dzięki analizie data driven można łatwiej doszukiwać się korelacji między pozycjami a zawartością contentu i estymować wyniki. Surfer pozwala na kontekstową analizę treści w oparciu o konkretne zapytanie. I tak np. jeśli prowadzisz sklep z kubkami termicznymi, może okazać się, że dla przybliżenia się do TOP 1 na frazę „kubki termiczne” powinieneś zredagować treść, jaka będzie miała przynajmniej 900 słów przy uwzględnieniu, że słowo „kubki” ma paść dwa razy częściej niż „termiczne”, a w kodzie źródłowym wypadałoby zagnieździć przynajmniej 4 bitmapy z atrybutami alt i title w formach nieodmienionych i odmienionych gramatycznie. Rzecz jasna dane w tym przykładzie dane zostały przeze mnie zmyślone, a sama analiza i umiejętność poprawnego interpretowania danych wcale nie są takie oczywiste, ale mam nadzieję, że teraz wiesz już, dlaczego w naszych raportach analiza contentu zajmuje połowę czasu pracy copywritera.
Analiza treści data-driven nie jest bez wad
Rzecz jasna, to też nie znaczy, że analiza treści w oparciu o model data-driven jest bezbłędna. Nie jest. To, że zachodzi korelacja nie daje pewności, że TOP1 jest efektem takiego, a nie innego contentu, bo przecież pozycja w organiku jest wypadkową setek różnych czynników, w tym architektury, linkowania wewnętrznego, zewnętrznego, wieku domeny, jej autorytetu i wielu innych.
I tak np. dobrą praktyką jest wykluczanie z analizy serwisów, jakie występują na top’owych pozycjach, ale nie sposób z nimi rywalizować, analizując powierzchownie sam content. Pozycje takiego Allegro i OLX nie zależą bowiem tylko (albo przede wszystkim) z uber-unikalnej, mięsistej treści, tylko szeroko rozumianego autorytetu domeny, wieku itd. Włączenie tych serwisów do analizy contentu wypłaszcza średnią i zaburza dane.
Inny przykład? Proszę bardzo. Dostrzegasz, że w TOP 10 są strony, które mają krótkie, słabo zoptymalizowane treści. Można przyjąć za zasadę, że jeśli tak rzeczywiście jest, to do zdobycia TOP 10 wystarczy zbliżyć się do ich wyniku i zredagować raptem 500-600 znaków treści. Ale okazuje się, że A. domeny są bardzo mocne w kontekście linkbuildingu, B. podstrony, które analizujemy są dobrze osadzone architektonicznie – tj. są podlinkowane pełnymi, exact matchowymi linkami wewnętrznymi. To linkowanie wewnętrzne jest często bagatelizowane – zdarza się, że link do kategorii np. „tabletki na potencję” mają po prostu anchor „na potencję”, a to mało efektywne. I jeśli np. moja strona ma zaburzone linkowanie wewnętrzne (bo posługuję się tylko częściowymi anchorami w linkowaniu wewnętrznym), a tego mam słaby profil linków, to korelacja tych 500-600 znaków treści przy przeciętnym zagęszczeniu słów kluczowych, która miałaby rzekomo wystarczyć mi do zniżenia się do czołówki jest rzecz jasna wyjęta z szerszego kontekstu.
Nie mniej – fakt, że analiza treści data-driven nie jest pozbawiona wad, to jeszcze nie powód, aby ją bagatelizować. Informacje jakich dostarcza np. Surfer SEO mogą być dobrą wskazówką do tego, aby „grzebać” dalej i budować własne wnioski, jakie są wypadkową onsite’u i czynników zewnętrznych.
I to tyle na dziś. Niebawem widzimy się w kolejnym materiale. Mówił do Was Paq. Cześć.
Jesteś ciekawy wyników współpracy z PAQ-Studio
Dowiedz się jak wygenerowaliśmy:
zwiększonego zasięgu w Google
Od 1 marca 2018 r. do 30 października 2021 r. poprawiliśmy widoczność marki Sklep Łuczniczy z poziomu 129 do 433 fraz sprzedażowych widocznych w Google w zasięgu TOP 1-3.
Ocen: Jak napisać artykuł?