fbpx

Crawlability

Crawlability to pojęcie, które określa z jaką łatwością wyszukiwarki mogą dotrzeć do Twojej strony i ją “poznać”. Proces, w którym bot przeglądarki (np. Googlebot) “przegląda” stronę internetową, odwiedzając kolejne podstrony, nazywany jest crawlingiem, a czas, jaki bot spędzi na danej stronie internetowej, jest uzależniony od crawl budgetu.

Można więc założyć, że im większy crawl budget, tym większa szansa na to, że bot wyszukiwarki przejrzy i oceni zawartość strony. Warto zaznaczyć, że nawet wysoki współczynnik crawlability nie daje gwarancji, że każda podstrona zostanie przez bota odwiedzona. Żeby mu pomóc, trzeba ułożyć architekturę informacji i zadbać o to, żeby podstrony były ze sobą połączone linkami wewnętrznymi.

Crawl budget zwiększa się wraz z każdym linkiem pozyskanym do domeny, ale żeby efekty były zadowalające, kampania linkbuildingu musi być przemyślana. Najwięcej wartości dla crawlability domeny dadzą linki z seedów, czyli stron uznawanych za autorytet w swojej dziedzinie.

Należy pamiętać o tym, że crawlability nie jest tym samym co indexability i choć obydwa terminy się w pewien sposób zazębiają, to dotyczą różnych zjawisk, bo sam fakt, że adres URL został zauważony przez bota wyszukiwarki, wcale nie oznacza, że ten widok zostanie zaindeksowany. GSC może powiadomić użytkownika: Strona wykryta – obecnie niezindeksowana (Crawled – currently not indexed). Komunikat ten oznacza, że bot odwiedził wskazany widok, ale ten nie został zaindeksowany. Dlaczego bot nie zaindeksował widoku na który finalnie trafił podczas crawlowania domeny? Powody mogą być różne, ale najpewniej wskazany widok nie spełniał wyznaczonych standardów. W takim wypadku, należy rozbudować content i poprosić o ponowną weryfikację w Google Search Console.

Poprzednia definicja INP
Następna definicja Indexability

Jakiego artykułu szukasz?

Zamknij