668 145 480 info@jacekjagusiak.pl

Jeśli nie znacie narzędzia jakim jest Screaming Frog to ten artykuł będzie doskonałym początkiem. Dziś napiszę tym w jaki sposób owa Wrzeszcząca Żabka może pomóc w działaniach typowych dla SEO. Wiem, że osoby, które od pewnego czasu używają tego narzędzia głównie wykorzystują je do zebrania najważniejszych danych o podstronach analizowanych serwisów. Jednak posiada ono również inne możliwości, których niewykorzystanie można uznać jako grzech.

Eliminacja błędów robota

Jak sami wiecie w GWT nie są zbyt często aktualizowane błędy robota i nawet po ich naprawie musimy odczekać spory kawał czasu zanim Webmaster Tools zaktualizuje dane. Chodzi mi głównie o błędy przy których widzimy 404. Wiec jak użyć żabojada, aby pomógł nam bardziej zautomatyzować ten proces i wyszukać podstrony tudzież adresy powodujące błędy?

  • Najpierw uruchamiamy SF i zbieramy dane o całej witrynie.
  • Następnie wszystkie 404-ki zapisujemy do arkusza.
  • Pobieramy 404-ki z narzędzia dla webmasterów i również umieszczamy je w arkuszu.
  • Usuwamy duplikaty występujące w obu arkuszach.
  • W jednym arkuszu zapisujemy wszystkie pozostałem 404-ki.
  • I znowu używając Screaming Frog ładujemy ostatnio utworzony arkusz i uruchamiamy pajączka.
  • Na koniec eksportujemy już autentyczne 404-ki jakie pozostały i możemy zabierać się za ich naprawę.

 

Sprawdzanie czy przenoszenie strony przebiegło z sukcesem

Zakładając, że zmieniamy na stronie strukturę URL’i, oczywiście nie wyobrażam sobie, że ktoś zapomniał o przekierowaniach. Jednak są pewne sytuacje i czasami z niewiadomych nam powodów niektóre adresy, nawet po przekierowaniu po prostu nie chcą działać. Wtedy najlepiej po zmianie URL’i włączyć Screaming Frog’a i upewnić się, że nigdzie nie dostajemy 404.

Niekończące się URL’e

Mam nadzieje, że nie jest wam obce pojęcie relatywnych odnośników? To właśnie przy ich tworzeniu możemy spotkać się z łańcuchem niekończących się przekierowań. Kiedyś na stronie klienta był nie lada kwiatek. Otóż na głównej stronie znajdował się odnośnik do „/strona1” jako relatywny url. Przechodząc pod ten adres otrzymywaliśmy w pasku przeglądarki domena.pl/strona1, ale na tej podstronie dalej widoczny był realtywny url do strona1. Przechodząc z nowej podstrony po kliknięciu do strona1 otrzymywaliśmy domena.pl/domena.pl/strona1 .

screaming-frog-seo-spider-10636-1
Wyobraźcie sobie co się dzieje po kolejnym kliknięciu? Tym samym otrzymujemy nigdy niekończący się adres strony. Tym samym robot wpadając na taką witrynę będzie tracił czas na ciągle przechodzenie dalej i dalej do stron, które de facto nie istnieją.
Używając SF szybko odnalazłem przyczynę problemy i co się okazało? Ktoś tworząc odnośnik nie dodał do niego http. Jednym słowem uważajcie na sytuacje, w których podczas tworzenia odnośnika podacie <href=”www.domena.pl” – bo wiecie czym to się może skończyć.

Sprawdzanie dodanych wpisów do katalogów

Dodając masowo do katalogów wykorzystuje wiele osób multikody. Po zakończonym dodawaniu otrzymujemy listę linków prowadzących z naszym wpisem. Ale skąd mamy pewność, gdy w raporcie jest ich 500, że każdy z nich działa? Że każdy URL autentycznie prowadzi do wpisu, za który zapłaciliśmy?
Dodając taką listę URL’i do Screaming Frog możemy w prosty sposób ich istnienie. Jeśli dostaniemy 404-ke to wiedzcie, że coś się dzieje.
Równie dobrze pobierając linki przychodzące do witryny z Webmaster Tools można sprawdzić czy dalej istnieją czy tylko GWT nie zaktualizowało ich statusu.

Tworzenie SiteMapy

Gdy mamy stronkę na takim CMS’ie, który realnie nie ma wtyczek do tworzenia automatycznego sitemap to możemy użyć SF do jej wygenerowania. Jednak w tym przypadku można napotkać masę błędów i dostaniemy linki, których nigdy byśmy nie chcieli widzieć w mapie strony.
Mam kilka stronek na WP i pomimo wielu wtyczek, które automatyzują proces tworzenia sitemapy czasami wolę ją utworzyć ręcznie – nie pytajcie dlaczego.
Tutaj SF zbiera wszystko co leci o ile nie nałożymy na niego pewnych ograniczeń. Na pewno każdy kto używa WordPress spotkał się z linkami kończącymi się na ?replytocom=11 – tym samym po co nam linki, które są tylko używane przez ludzi chcących zostawić komentarze. Nie chcemy by SF dodawał to do mapy więc używamy narzędzia exclude tool, aby powiedzieć programowi jakich linków ma nie dorzucać do sitemap.
Takich przypadków może być masa, więc najpierw dobrze poznajcie swojego WordPressa, czy inna stronę, zanim zawierzycie jej los waszej mapy strony.

Sprawdzanie błędów w SiteMapie

Wracając do tematu sitemap. Czy wiecie, że Screaming Frog może pomóc wam ją utrzymać w dobrej kondycji? Możemy łatwo wyeliminować błędy 404 czy przekierowania. Serwujemy je do Google głównie w formacie XML i takie pliki także da się zaimportować do SF. Po uruchomieniu pajączka SF powie nam czy znalazł w mapie strony 404-ki albo przekierowania.

Rate this post
Rate this post