GSC na sterydach: wykorzystaj API GSC, BigQuery, Looker Studio i Screaming Froga

GSC na sterydach - poradnik Google Search Console

Próbkowanie danych oraz mocno ograniczone raporty ze szczegółami dotyczącymi indeksacji to główne wyzwania w pracy z Google Search Console. Ograniczone dane możemy znacznie poszerzyć, korzystając z kilku narzędzi. Dowiedz się, jak wyciągnąć dokładniejsze dane z GSC przy pomocy GSC API, BigQuery, Looker Studio oraz Screaming Froga.

Spis treści:

  1. Stan indeksacji z Google Search Console + Screaming Frog
  2. Dane z Google Search Console + Looker Studio
  3. Google Search Console API + własne skrypty w Pythonie
  4. Google Search Console + BigQuery

Jak połączyć API Google Search Console ze Screaming Frogiem?

Jeśli nie masz dostępu do licencjonowanej wersji Screaming Froga, nic straconego. Dokładnie te same informacje wyciągnąć możesz przez API GSC, co pokazuję w dalszej części artykułu.

Jeżeli chcemy sprawdzić indeksowalność większej liczby adresów URL na naszej stronie, najwygodniejszym sposobem jest połączenie Screaming Froga z API Google Search Console. Oprócz weryfikowania standardowych danych crawler może wyciągnąć dzięki temu także dane o ruchu oraz dokonać inspekcji konkretnych adresów pod kątem ich indeksowalności.

Screaming Frog połączony z API Google Search Console pozwala uzyskać następujące informacje na temat wskazanych adresów URL:

  • kliknięcia,
  • wyświetlenia,
  • CTR,
  • średnia pozycja,
  • status adresu URL w indeksie,
  • data ostatniego crawla googlebota,
  • typ user agenta tegoż crawla,
  • ewentualne zablokowanie w robots.txt,
  • status sukcesu w pobraniu strony,
  • ewentualny noindex,
  • canonical deklarowany przez stronę,
  • canonical wybrany przez Google,
  • status użyteczności mobilnej,
  • status AMP,
  • status rich results.

Niestety, URL Inspection API (dostarcza ono wszystkie dane związane z indeksem) ma ograniczenie do 2000 adresów URL dziennie. W samym GSC dostajemy jednak w konkretnych raportach maksymalnie 1000 URL-i, a także jesteśmy skazani na adresy wybrane przez system.

Aby połączyć Screaming Frog z Google Search Console API, musimy wykonać następujące kroki:

  1. Uruchomić Screaming Froga.
  2. W zakładce "Configuration" rozwinąć opcję "API Access" i wybrać "Google Search Console".

    Screaming Frog + GSC API
  3. W okienku, które wyskoczy, kliknąć przycisk "Sign in with Google".

    Screaming Frog + GSC API
  4. Pozwolić na autoryzację w ramach wybranego konta Google.
  5. Wybrać odpowiednią usługę GSC.

    Screaming Frog + GSC API
  6. Puścić crawl po całej stronie czy katalogu (opcja "Include" w zakładce "Configuration") albo wybranej liście adresów.
  7. Wyeksportować wyniki do Excela.

Jeżeli zależy nam na regularnych raportach, możemy ustawić harmonogram crawli, a dane pobierać automatycznie do Looker Studio. Popularne narzędzie do wizualizacji danych łączy się jednak GSC również bez pośrednictwa Screaming Froga. A przy tym, w przeciwieństwie do SC, nie wymaga wykupowania licencji.

Jak zaimportować dokładniejsze dane z Google Search Console do Looker Studio?

Próbkowanie danych w Google Search Console sprawia, że w przypadku stron przekraczających kilkaset tysięcy kliknięć miesięcznie umykać może nam nawet 30-40% ruchu (w artykule ze strony Similiar.ai pada nawet znacznie większy odsetek, sięgający 66% w przypadku wyświetleń).

Dane z raportu "Skuteczność" nie są zatem najlepszym źródłem wiedzy. Zdecydowanie nie powinno się opierać na nich strategicznych estymacji czy wyznaczać przy ich pomocy szczegółowych celów. Przez próbkowanie mogą również zaburzać prowadzone przez nas eksperymenty, które mają wykazać sensowność tych czy innych działań SEO.

Prostym sposobem na uzyskiwanie znacznie dokładniejszych danych jest połączenie Looker Studio z danymi Google Search Console przy użyciu wbudowanego w LS łącznika. O ile standardowe raporty z GSC mają objętość ograniczoną do 1000 wierszy, w przypadku LS możliwości zwiększają się nawet kilku czy kilkunastokrotnie.

Aby połączyć te dwa narzędzia Google, należy:

  1. Wejść w zakładkę "Szablony" w Looker Studio.
  2. Wybrać kategorię "Search Console" i kliknąć szablon raportu.

    Looker Studio + GSC API
  3. W szablonie wybrać opcję "Użyj moich własnych danych".

    Looker Studio + GSC API
  4. Autoryzujemy połączenie z naszym kontem w GSC i wybieramy dwie wersje danych: dla Site będą to "Wyświetlenia witryny", zaś dla URL "Wyświetlenia adresu URL".

    Looker Studio + GSC API
  5. Wybieramy interesujące nas daty, filtry i cieszymy się ze znacznie większej liczby danych niż w raportach skuteczności w Google Search Console.

Jest to najbardziej podstawowy raport, który wykorzystać możemy jako punkt wyjściowy. Looker Studio oferuje jednak znacznie szersze możliwości, przy czym tworzenie własnych dashboardów nie jest koniecznie. Warto wesprzeć się efektami pracy specjalistek i specjalistów SEO z całego świata. Szczególnie zainteresować mogą was następujące raporty:

Skrypty w Pythonie do komunikacji z API GSC

Umiejętność łączenia się z API Google Search Console bez użycia narzędzi przydaje się, jeżeli nie mamy dostępu do pełnej wersji Screaming Froga (taka opcja nie jest dostępna w wersji darmowej bez licencji) lub jeżeli chcemy skorzystać z opcji niedostępnych za pośrednictwem Looker Studio czy BigQuery, a więc wykraczających poza wyciąganie danych dotyczących widoczności.

We wszystkich tych zadaniach wesprze nas Google Colab, za którego pośrednictwem odpalimy skrypt w Pythonie przystosowany do naszych potrzeb przez ChatGPT.

Ustawianie dostępu do GSC API w Google Cloud

Dla osób, które nie miały jeszcze do czynienia z Google Cloud, największym wyzwaniem może być uzyskanie danych autoryzacyjnych. Po kilkukrotnym przeklikaniu się przez usługę chmurową Google'a nie stanowi to problemu, ale pierwsze logowanie tam może być przytłaczające.

Aby uzyskać dostęp do GSC API w Google Cloud, należy:

  1. Wejść do usługi Google Cloud.
  2. Kliknąć "Get started for free" i przejść proces rejestracji.

    Rejestracja w Google Cloud
  3. Wejść w konsolę Google Cloud i utworzyć nowy projekt.
  4. W panelu projektu wybrać "Interfejsy API i usługi".

    Włączanie GSC API w Google Cloud
  5. Wybrać opcję "Włącz interfejsy API i usługi".

    Włączanie GSC API w Google Cloud
  6. Wyszukać usługę Google Search Console API i kliknąć w nią.

    Włączanie GSC API w Google Cloud
  7. Włączyć usługę GSC API.

    Włączanie GSC API w Google Cloud
  8. Wybrać zakładkę "Dane uwierzytelniające" i po rozwinięciu opcji "Utwórz dane logowania" wybrać "Identyfikator klienta OAuth".

    Włączanie GSC API w Google Cloud
  9. Wybrać wartości dla "Typ aplikacji" oraz "Nazwa" i kliknąć "Utwórz".
    Włączanie GSC API w Google Cloud
  10. W panelu projektu kliknąć hamburger z ustawieniami, tam rozwinąć zakładkę "Administracja" i kliknąć "Konta usługi".

    Włączanie GSC API w Google Cloud
  11. W panelu "Konta usługi" rozwinąć trzy kropeczki z kolumny "Działania" i kliknąć "Zarządzaj kluczami".

    Włączanie GSC API w Google Cloud
  12. W panelu zarządzania kluczami rozwinąć opcję "Dodaj klucz" i kliknąć "Utwórz nowy klucz".

    Włączanie GSC API w Google Cloud
  13. W okienku, które wyskoczy, wybrać opcję "JSON" i kliknąć "Utwórz".

    Włączanie GSC API w Google Cloud
  14. Zapisać klucz pod zrozumiałą nazwą (np. "kluczapi").
  15. Otworzyć pobrany plik w notatniku i skopiować adres e-mail z parametru "client_email".
  16. W Google Search Console domeny, którą chcemy sprawdzać, wybrać "Ustawienia" i przejść do widoku "Użytkownicy i uprawnienia".

    Włączanie GSC API w Google Cloud
  17. W panelu "Użytkownicy i uprawnienia" kliknąć "Dodaj użytkownika".

    Włączanie GSC API w Google Cloud
  18. W następnym okienku wkleić adres e-mail z klucza API, wybrać uprawnienia "Właściciel" i kliknąć "Dodaj".

    Włączanie GSC API w Google Cloud

Teraz możemy korzystać już z API GSC przy użyciu wygenerowanego w Google Cloud klucza API.

Sprawdzanie stanu zaindeksowania adresów URL przez GSC API

Działanie, które wcześniej pokazywałem z szybkim sposobem ze Screaming Froga, możliwe jest również do wykonania poprzez API GSC. Wadą tej drogi jest nieco większe skomplikowanie (związane z koniecznością napisania skryptu, co odbębniłem za was), ale zaletą jest bezpłatny charakter - nie trzeba mieć wykupionej licencji do SC.

Aby sprawdzić stan zaindeksowania adresów URL w GSC API, należy:

  1. Skopiować skrypt do sprawdzania stanu zaindeksowania adresów URL w GSC API na własny Dysk Google.

    Skrypt do sprawdzania stanu indeksu przez GSC API
  2. Przygotować listę sprawdzanych adresów URL w pliku .xlsx.

    Skrypt do sprawdzania stanu indeksu przez GSC API
  3. Do pamięci wirtualnej wgrać klucz API oraz listę adresów URL.

    Skrypt do sprawdzania stanu indeksu przez GSC API
  4. Podmienić w kodzie nazwy swoich plików:

    Skrypt do sprawdzania stanu indeksu przez GSC API
  5. Odpalić skrypt.

    Skrypt do sprawdzania stanu indeksu przez GSC API
  6. Sprawdzić, czy skrypt ma dostęp do naszego GSC, a w przypadku sukcesu pobrać plik z wynikami.

    Skrypt do sprawdzania stanu indeksu przez GSC API
  7. Cieszyć się eleganckim sprawdzeniem indeksowania dla nawet 2000 adresów URL dziennie:

    Skrypt do sprawdzania stanu indeksu przez GSC API

Sprawdzanie, dodawanie i usuwanie sitemap przez GSC API

Jednym z wdzięczniejszych sposobów na kontrolowanie poszczególnych grup adresów URL jest dodawanie ich do GSC w ramach osobnych sitemap, dzięki czemu dostajemy całkiem niezły raport dotyczący stanu ich zaindeksowania.

Specjaliści i specjalistki SEO korzystają z tej opcji dość często, chociaż w interfejsie GSC nie ma opcji masowego dodawania lub usuwania sitemap. Jeżeli dodajemy ich więcej lub chcemy zrobić porządek z już istniejącymi, czeka nas więc mozolna klikanina. Chyba że skorzystamy z GSC API.

Przygotowałem zestaw trzech skryptów pod zarządzanie sitemapami w GSC. Po skopiowaniu pliku Google Colab na swój Dysk Google w prosty sposób sprawdzisz wszystkie swoje sitemapy w GSC, masowo je dodasz lub usuniesz.

Aby sprawdzić sitemapy w GSC przez API:

  1. Dodaj klucz API do przestrzeni wirtualnej.

    Skrypt do sitemap w GSC
  2. Wpisz swoją nazwę pliku z kluczem API oraz swój adres domeny.

    Sprawdzanie sitemap w GSC przez API
  3. Odpal skrypt.

    Sprawdzanie sitemap w GSC przez API
  4. Ciesz się z listy sitemap ze swojej usługi w GSC w konsoli oraz pliku Excel.

    Sprawdzanie sitemap w GSC przez API

Aby usunąć masowo sitemapy w GSC przez API:

  1. Sporządź w pliku .xlsx listę adresów sitemap do usunięcia.

    Dodawanie i usuwanie sitemap w GSC przez API
  2. Dodaj klucz API oraz plik z adresami sitemap do usunięcia do przestrzeni wirtualnej.

    Skrypt do sitemap w GSC
  3. Wpisz swoją nazwę pliku z kluczem API, swój adres domeny oraz swoją nazwę pliku z sitemapami do usunięcia.

    Usuwanie sitemap w GSC przez API
  4. Odpal skrypt.

    Usuwanie sitemap w GSC przez API
  5. Ciesz się z usuniętych sitemap (o ile chciałeś je usunąć, w innym przypadku możesz nie mieć powodu do radości).

    Usuwanie sitemap w GSC przez API

Aby dodać masowo sitemapy w GSC przez API:

  1. Sporządź w pliku .xlsx listę adresów sitemap do dodania.

    Dodawanie i usuwanie sitemap w GSC przez API
  2. Dodaj klucz API oraz plik z adresami sitemap do dodania do przestrzeni wirtualnej.

    Skrypt do sitemap w GSC
  3. Wpisz swoją nazwę pliku z kluczem API, swój adres domeny oraz swoją nazwę pliku z sitemapami do usunięcia.

    Dodawanie sitemap w GSC przez API
  4. Odpal skrypt.

    Dodawanie sitemap w GSC przez API
  5. Ciesz się z dodanych sitemap.

    Dodawanie sitemap w GSC przez API

Pobieranie danych dotyczących skuteczności z GSC API

Wszelkie dane, które widzimy podczas połączenia GSC z Looker Studio, możemy wyciągnąć również przez API. Niestety, stworzenie jednego uniwersalnego skryptu jest w tym przypadku niemożliwe - wśród seowczyń i seowców zaistnieć może tyle potrzeb do wyciągnięcia konkretnych informacji, ile wymiarów dostępnych jest w API GSC.

Z tego względu prezentuję w tym miejscu sposób na wyciągnięcie najprostszych danych i zachęcę do modyfikowania zapytań według własnego uznania, do czego użyć należy oczywiście ChataGPT. Sensowne pomysły na requesty (Top X zapytań, Top X podstron, zapytania sekwencjonujące dane w celu ominięcia limitu 25 000 wierszy) znajdują się również w dwóch przewodnikach Google: tutaj i tutaj.

Podobnie jest z grupowaniem i wizualizacją danych - w tym przypadku również polecam skorzystać z prostych promptów, które przygotują odpowiedni kod do przetwarzania data frames oraz tworzenia wykresów z bibliotekami matplotlib czy seaborn. Chociaż istnieje duża szansa, że zdecydowaną większość waszych potrzeb raportowo-analitycznych sprawniej zaspokoi Looker Studio.

Aby wyciągnąć dane dotyczące skuteczności z GSC API, należy:

  1. Skopiować skrypt do wyciągania danych widoczności przez GSC API na swój Dysk Google.

    Wyciąganie danych dotyczących widoczności z GSC API
  2. Dodać klucz API do przestrzeni wirtualnej.

    Wyciąganie danych dotyczących widoczności z GSC API
  3. Wpisać swoją nazwę pliku z kluczem API oraz swoją nazwę domeny.

    Wyciąganie danych dotyczących widoczności z GSC API
  4. Odpalić kod.

    Wyciąganie danych dotyczących widoczności z GSC API
  5. Cieszyć się eleganckimi danymi wyeksportowanymi do Excela.

    Wyciąganie danych dotyczących widoczności z GSC API

Jak widzicie, na tak świeżym blogu szczątkowy ruch przynosi wyłącznie podstrona z newsletterem SEO 😉

Eksport danych z GSC przez BigQuery

Opcją uznawaną powszechnie za najbardziej stabilną w wyciąganiu maksymalnych wolumenów danych z GSC jest eksport wszelkich dostępnych informacji za pośrednictwem BigQuery. Polecają ją również oficjalne rekomendacje GSC.

Przechowywanie informacji w hurtowni danych ma również tę zaletę, iż pozwala na ominięcie jednego z najbardziej irytujących ograniczeń GSC, czyli dostępu do statystyk sięgających maksymalnie 16 miesięcy wstecz. Rozwiązanie to wiąże się jednak z koniecznością zaangażowania niemałych zasobów.

O ile samo odkładanie danych nie stanowi problemu i generuje koszty dopiero w przypadku naprawdę dużych serwisów, tak bardzo szybko polecieć można na odpytywaniu BigQuery. To standardowo pułapka pracy z big data — w przypadku mniejszych biznesów zasoby poświęcone na pozyskanie i procesowanie danych są niewspółmierne do zysków, natomiast większe podmioty muszą solidnie napracować się nad optymalizacją kosztów.

Trzy wcześniejsze sposoby na pozyskanie znacznie dokładniejszych danych z Google Search Console nie są problematyczne i leżą w zasięgu wszystkich specjalistek i specjalistów SEO. Wdrożenie rozwiązań opartych na BigQuery wymaga natomiast znacznie większych kompetencji technicznych. To olbrzymi projekt, który zakłada co najmniej trzy etapy:

  1. Względnie proste wdrożenie odkładania danych z GSC do BigQuery, które krok po kroku opisane zostało w Help Center GSC.
  2. Znalezienie sposobu na optymalne kosztowo i czasowo przetwarzanie odłożonych danych. O tym, jak skomplikowany i wymagający jest to proces, możecie przekonać się poprzez lekturę tego wpisu na blogu ClickHouse.
  3. Poświęcenie czasu na opracowanie sposobu wizualizacji danych oraz wyciągania z nich insightów. To mój absolutnie ulubiony aspekt pracy z dokładnymi danymi z GSC, jednak niewątpliwie czasochłonny.

Ze względu na powyższe uwarunkowania łączenie GSC z BigQuery jest rozwiązaniem dla dużych organizacji, które mają odpowiednie kompetencje i są w stanie poświęcić kilkadziesiąt roboczogodzin, aby pozyskać duże wolumeny danych i zrobić z nich odpowiedni użytek.

Odpowiedź na cisnące się na usta pytanie, czy jest to opłacalne, musi zostać udzielona na poziomie organizacyjnym. Często wiąże się z pytaniem, czy dane dotyczące ruchu z Google'a wpływają na podejmowane działania SEO i/lub są podstawą decyzji strategicznych, czy może stanowią czynnik trzeciorzędny, a co za tym idzie - czy ich pozyskiwanie nie będzie przepalaniem zasobów.