Mentionsy

SEO Fridays Podcast
SEO Fridays Podcast
30.05.2025 10:44

#063: Google Search Console na sterydach - Bartosz Nalepa & Jakub Mazurkiewicz

Ograniczenia Google Search Console denerwują pewnie wielu z Was. Limity danych, brak historii dłuższej niż 16mc czy brak alertów o stanie indeksacji to tylko niektóre z problemów, na które narzekają Specjaliści SEO. Dziś rozmawiamy o tym, jak sobie z tym radzić i jak lepiej analizować dane z GSC i GA4. Zapraszam! 🚀

Bartosz Nalepa 🌍 https://www.linkedin.com/in/bartosz-nalepa/
Jakub Mazurkiewicz 🌍 https://www.linkedin.com/in/jakub-mazurkiewicz/

🤝 Sponsor odcinka:
Revamper11 - https://revamper11.com
🌍 https://www.linkedin.com/company/revamper11/
#płatnawspółpraca #reklama #FunduszeUE

Even Steven Sp. z o.o. realizuje projekt Revamper11 w ramach programu Fundusze Europejskie dla Polski Wschodniej 2021-2027, Priorytet FEPW.01 Przedsiębiorczość i Innowacje, Działanie FEPW.01.01 Platformy startowe dla nowych pomysłów, Komponent IIa – Wsparcie rozwoju działalności gospodarczej startupu. Wysokość dofinansowania projektu 593 906,90 zł.

🤝 Partner Podcastu:
Trust Luna - https://trustluna.com
#płatnawspółpraca #reklama


Rozdziały:
- Zapowiedź Gości
- Jakie dane powinien zbierać i analizować Specjalista SEO?
- Raport "Podstawowe wskaźniki internetowe" (Core Web Vitals)
- Ograniczenia Google Search Console
- Pojedyncze zgłaszanie stron do indeksacji
- Problemy z indeksacją w Google
- Różne Google API w jednym interfejsie
- Dane z GSC w GA4
- Czy to samo można analizować w BigQuery?
- Plany rozwojowe narzędzia Revamper11


Linki:
🔗 Revamper11 - https://revamper11.com
🔗 Google Search Console - https://search.google.com/search-console/
🔗 Google Analytics 4 - https://analytics.google.com/analytics/web/
🔗 #047: Google Update, czyli jak żyć gdy nie na zielono 🔴 Paweł Gontarek (Zgred) - https://dawidmed.com/blog/seo-fridays-podcast-047-google-update-czyli-jak-zyc-gdy-nie-na-zielono/
🔗 #020: SEO dla serwisów blogowych - Paweł Gontarek (Zgred) - https://dawidmed.com/blog/seo-fridays-podcast-020-seo-dla-blogow/
🔗 #032: Co w Google Search Console piszczy - Sebastian Heymann - https://dawidmed.com/blog/seo-fridays-podcast-032-google-search-console/
🔗 #028: Problem indeksacji stron w Google - Marek, Roland & Tomek - https://dawidmed.com/blog/seo-fridays-podcast-028-problem-indeksacji-stron-w-google/


🎁 2 miesięczny TRIAL z kodem od ekipy Revamper11. Żeby skorzystać z tej promocji, należy się zarejestrować na stronie revamper11.com, a przy pierwszym logowaniu wpisać specjalny kod:

R11_EXTRA-2M-TRIAL_SEO-FRIDAYS

✅ Najwyższy pakiet dostępny w ofercie
✅ Standardowo 7 dni, ale tutaj aż 60 dni
✅ Oszczędność: 800 zł netto
✅ Kod ważny do wykorzystania do 31.05
✅ Rejestracja bez podawania danych karty kredytowej
✅ Kod wprowadzasz dopiero przy pierwszym logowaniu


Obserwuj #SEOFridays
☑️ Facebook: https://www.facebook.com/seofridays/
🐦 X: https://x.com/seo_fridays
⏯ YouTube: https://www.youtube.com/@seofridays

Zapraszam!
Dawid Medwediuk

✔️ LinkedIn: https://www.linkedin.com/in/dawidmedwediuk/
📧 E-mail: [email protected]
🌍 Website: https://seofridays.com

Rozdziały (10)

1. Zapowiedź Gości
2. Jakie dane powinien zbierać i analizować Specjalista SEO?
3. Raport "Podstawowe wskaźniki internetowe" (Core Web Vitals)
4. Ograniczenia Google Search Console
5. Pojedyncze zgłaszanie stron do indeksacji
6. Problemy z indeksacją w Google
7. Różne Google API w jednym interfejsie
8. Dane z GSC w GA4
9. Czy to samo można analizować w BigQuery?
10. Plany rozwojowe narzędzia Revamper11

Szukaj w treści odcinka

Znaleziono 78 wyników dla "GA"

Tam też zresztą byłem wspólnikiem i pomagałem rozkręcać ten biznes i udało się go rozkręcić z jednej spółki do czterech.

Weszło do tej grupy jako EOWIC Digital, a z kolei ta druga agencja słaba, to nazwaliśmy ją Organic Search, zanim się w ogóle ten EOWIC pojawił w orbicie, no a potem już dodaliśmy EOWIC, tak, więc jest EOS Jutrzenka, EOWIC Organic Search, także tak to wygląda.

Z ciekawszych rzeczy miałem okazję pracować w Men's Health i Runners World of Men's Health, nie wiem na ile znany wam magazyn, natomiast

Cóż zrobić, cóż zrobić, ale powiem tak, że jeśli chodzi o samo SEO, to ja się uczyłem SEO z jednej strony organicznie, czyli samodzielnie, z drugiej strony później bardziej profesjonalnie od zgreda, no bo zgred rzeczywiście został

A to naprawdę była awangarda w tym czasie.

Tak, to była awangarda.

No to ja sobie wstawię VOD, odpalę jakieś landing page'a, no i spróbuję ściągnąć trochę ruchu organicznego.

I pomyślałem sobie, ok, coś w tym organic trafiku jest.

Stawiając na nogi część digitalową, czy w ogóle, no Bartek całościowo, ale taką część digitalową agencji FFW Communication i tam też tworzyliśmy różnego rodzaju projekty, które były oparte o ruch organiczny, między innymi dla marki Lenovo, taki projekt, który się nazywał Lenovo Zone, który był oparty w 100% na ruchu organicznym.

Zresztą zgarnął kilka nagród.

W PIK-u byliśmy w stanie ściągać 200 tysięcy unikalnych użytkowników z ruchu organicznego do tego...

Nasz drugi, można powiedzieć, wspólny taki projekt, gdzie ja i Kuba jesteśmy, czy też Kuba i ja właściwie, powinienem powiedzieć, zaangażowani.

To miała być papuga.

Nawet samej agencji, bo agencje jakby starają się też zbudować swoją wartość i swoją przewagę konkurencyjną właśnie w różny sposób i też dostrzegaliśmy to, że są agencje, które próbują na tym obszarze martechowym pokazać klientom, że są w stanie budować własne rozwiązania i te rozwiązania mogą być skuteczne.

Z tym, że de facto potrzeba była matką wynalazku, to znaczy my widzieliśmy pewne niedomagania core'owego narzędzia SEO, jakim jest Google Search Console i na tej podstawie tak naprawdę zrodził się pomysł, który de facto na początku miał być pomysłem, który w ogóle rozwiązuje nasze problemy.

Znaczy oczywiście jest jeszcze dalsza podstawa podstaw, bo przecież mamy SEO techniczne i gdzieś mamy Screaming Froga, z którego też notabene do teraz korzystamy.

Ja pamiętam ze swojego czasu, bo Sidebulb się pojawiło tak chyba z 4-5 lat temu, myślę, jako konkurencja bezpośrednia do Screaming Froga.

Część ludzi nie zgadza się na cookiesy i wolą analizować ruch z Google Search Consoli, dawniej Google Webmaster Tools.

Oczywiście, jeżeli postrzegasz SEO trochę szerzej niż Google, to pewnie Webmaster Toolsy.

I plus poprzez stawki wyciągania jakichś pośrednio informacji o popularności jakichś słów.

W obszarze contentowym jest tego bez liku, ale oczywiście pewnie tym najbardziej charakterystycznym narzędziem, które być może jest najczęściej wykorzystywane jest notabene polski surfer, który jednak pomaga nam w ramach tego, żeby te treści były odpowiednio zoptymalizowane pod content score.

To też jeszcze troszeczkę nawiążę do GA, czyli Google Analytics, a GSC.

Ja pamiętam, że kiedyś na samym początku zapytałem Kuby, no Kuba, no ale to właściwie, po co jest to GA, skoro jest GSC, albo to GSC, to GA, no to jest co, to jest właściwie to samo, czy to jest coś innego?

Natomiast to, co obudziło moją, tak skonfrontowało mi mocno, to jest ta część indexing, czyli ta, wiesz, związana z indeksacją, bo to jest naprawdę zrobione mega, mega topornie, nie?

Bo w momencie, jak budowaliśmy to nasze narzędzie Revampire, o którym opowiemy, to tylko krótko powiem, że ono pobiera dane zarówno z GSC, jak i z GA po API.

Natomiast z GA to ja mogę podać konkretne przykłady, gdzie po prostu

W momencie, kiedy przykładowo dodajesz sobie, była załóżmy niezgodność w ruchu organicznym, bo my pobieramy ruch organiczny do revampera versus GA, to ja wiem, że ja w revamperze mam bardziej poprawne dane.

Przykładowo, jeżeli jest po roku, na przykład pobierzemy dane roczne i jest jakaś niezgodność versus GA, to już wyłapałem, że są pewnego typu systemowe błędy w GA, które powodują, że jak zaczniesz sprawdzać dokładnie dzień po dniu albo miesiąc po miesiącu,

A w ramporze się to zgadza.

To tutaj o skuteczności, o indeksowaniu... Ja o indeksowaniu chciałem wrócić, bo ja tak wrzuciłem ten taki off-topic, że się tak wyrażę a propos GA, ale GSC, jeżeli chodzi, bo to był też taki zaczyn, że jak sobie popatrzyłem, że to jest bardzo toporny raport, w tym sensie, że wiesz, że masz, okej, masz jakąś listę,

No i też, czego brakuje, no to jest na pewno właśnie benchmarkowanie, bo realnie rzecz biorąc, to nie jest tak, że ty otrzymujesz na przykład jakieś informacje, które pokazują ci, że witryny, które znajdują się w obrębie twojego obszaru rynkowego, jakiś market fit, który ty zajmujesz, osiągają z reguły takie, a nie inne

Później druga grupa adresów, to jest jakieś 12.

Dla mnie to jest bardzo ważne, żeby była spójność danych pomiędzy tym, co można znaleźć w interfejsie, czy to GA, czy GSC, wersus tego, co będzie można znaleźć w Revamperze.

Czy one rzeczywiście są zaindeksowane albo przynajmniej jak są postrzegane przez Googla?

Ale przy naprawdę dużych serwisach ograniczenie do 1000 e-commerce'ów bądź jakichś dużych portali informacyjnych, no to nie, no to sorry, ale nie, no to nie da rady po prostu w ten sposób analizować i wyciągać pewnych wzorców, tak?

Natomiast BigQuery jest już czymś, co ma już pewną dozę cierpliwości do tego, żeby w samym Google Cloudzie dobrze to wszystko ogarnąć.

Czy jest jakieś ograniczenie wyciągania na przykład liczby słów kluczowych więcej niż 1000 po API?

Ja bym chciał znaleźć naprawdę fajny sposób, jeżeli chciałbym to wdrożyć faktycznie, będzie takie zapotrzebowanie rynku, no to będzie duża rozchwina, jak to X-owo rozwiązać tak, żeby to naprawdę fajnie śmigało.

Ale ja tylko tutaj dodając, bo przypuszczam, że to była taka esencja tego pytania, różnica polega na tym, że o ile masz ten tysiąc wierszy, to tu masz pięćdziesiąt tysięcy wierszy, więc to jest trochę odpowiedź na twoje pytanie.

Dobra, jak łączyć dane, które zbiera GA i tam widzę na przykład efektywność tego ruchu i co się z tym dzieje na stronie?

Dane z GSC w GA.

W związku z tym my mieliśmy pewien koncept, który miał łączyć te dane, próbować je łączyć z GSC, czyli te końcówki i z GA, ale to była jedna inicjalna myśl, która mówiła o tym, o ograniczeniu GSC.

Druga była taka, że rzeczywiście 16 miesięcy, tak, 16 miesięcy danych, no to jest mało, bo jeżeli rzeczywiście chcesz porównywać dane, wyciągać jakieś wnioski,

Już nie mówiąc o tym, że w GA też mamy ten problem, tak?

Problem polegający na tym, że... Natywnie dwa miesiące, docelowo 14 miesięcy.

Problem, o którym Bartek już wspomniał, czyli pracy w ogóle na tym, na tych błędach, czyli że tak, jeżeli pojawiają się jakiekolwiek błędy, informacje z GSC, to okej, ja chciałbym je procedować, ale chciałbym mieć jakąś historię tego, po pierwsze, jak postrzegał je Google, a po drugie, co ja robiłem, czyli to są dwie rzeczy, czyli z jednej strony, żebym wiedział, co zniknęło, co pojawiło się ponownie i miał tak zwanego loga,

I na przykład tu nawet najprostsza, najbardziej banalna rzecz, która na przykład różnymi pluginami była rozwiązywana w GA, gdzie można było sobie na przykład dodawać notatki na wykresach.

Kiedyś w GA3 tam były te notatki, takie można było dodawać, nie?

To jest ta dysproporcja pomiędzy tym, co mamy w natywnym narzędziu, jakie oferuje jedna wyszukiwarka i druga wyszukiwarka.

Jeszcze ja tylko krótkie jedno sprostowanie, no bo ja też zobaczyłem GA4,

Mimo wszystko korzystanie w konsoli z tego raportu jest trudne, żeby niczego się nie przegapić, prawda?

Ale przechodząc właśnie do tego, to wiesz, nasze narzędzie korzysta, ma budowane łączenie nie tylko z GSC API, to są dane właśnie te performance'owe, nie tylko z GA API, gdzie mamy dane i tam pobieramy ruch organiczny, w sensie to są...

Jedna to jest Inspecting API, a druga to jest API PageSpeed Insights.

Jeżeli tylko się pojawi błąd na takiej właśnie stronie, która jest dla Ciebie mega ważna, jedynką albo dwójką i przynosi Ci 10, 15, 20, 50% ruchu, pojawi się błąd, Ty o tym się dowiesz.

Także przed takimi wnioskami bym przestrzegał.

Zaciągamy te dane z GSC.

Ja tu od razu powiem jeszcze jedną rzecz, bo wydaje mi się, że to do tej pory chyba jest jakimś problemem, bo jak ktoś wiązał dane z GSC AGA, mógł to trafić na taki wątek, gdzie jeżeli miał autoryzację wcześniej dokonaną przez domenę, to niekoniecznie efektywnie mógł powiązać te dane.

A propos tego, co możesz obserwować w GA i po co to jest potrzebne, no wiadomo, że w GA widzisz w jakimś mierze ten realny ruch, no bo kliknięcie nie oznacza to, że to się zakończyło jakąś konkretną sesją i jakimś aktywnością użytkownika na stronie, więc wciąż patrzenie na tę drugą końcówkę, jaką jest GA, abstrahując od tego, o czym gdzieś tu rozmawialiśmy zakulisowo czy też mniej zakulisowo, że jest constant mode i

I część tych danych ucieka, no to wciąż przynajmniej ci użytkownicy, którzy wyrazili na to zgodę, są śledzeni i wtedy widzimy realnie tak naprawdę, co oni tam robili, więc warto patrzeć na ten ruch organiczny.

Organiczny to oznacza taki, który jest przefiltrowany w raporcie GA, gdzie widzimy ten ruch czysto właśnie organiczny, w zależności od tego, czy chcemy go widzieć tylko z Google'a, czy też z innych wyszukiwarek.

Robiąc ruch organiczny to pewnie nieraz spotkał się z pytaniem albo oczekiwaniem, no to teraz powiedzcie ile ten ruch dowozi sprzedaży, a najlepiej wyestymujcie ile ten ruch będzie dowodził tej sprzedaży.

To jeszcze tylko dopowiadam, więc to nie jest tak, że to jest jakaś długa droga.

Plus z GA ruch organiczny w postaci sesji, tak?

GA jest takie bardzo rozbudowane i niekoniecznie każdy tak z niego sprawnie korzysta.

No to jeżeli chcieliśmy coś wziąć z GA, to na poparcie danych z GSC jest ten ruch organiczny.

Nie mamy na przykład dane, wiesz, tutaj sobie patrzę na przykład teraz na GA po powiązaniu jednego klienta bounce rate na przykład, tak?

Możemy powiedzieć cztery, bo mamy GSC API dane, GA API dane, PSI API, żeby odpytywać, po prostu sprawdzać korby Vitalsa, bo tam pobieramy też więcej informacji, oraz Inspecting API po to, żeby móc sprawdzać, jaki jest status w indeksie tych 2000 ulic, do 2000 ulic dziennie, no i Indexing API.

Jakie są plusy Waszego narzędzia i przewaga nad tym samodzielnym korzystaniem z API, czy tam wiesz, no niektórzy sobie jakieś swoje mini-appki piszą i to API wykorzystują, no i czy właśnie BigQuery, wiesz, płacenie za BigQuery, za odpytania, jakbyście mogli coś więcej na ten temat powiedzieć?

Pamiętajmy, że tu jednak jakieś umiejętności w zakresie SQL trzeba mieć i w ogóle jakiś ogar technologiczny środowiska cloudowego Google'a.

Wydaje nam się, że to co my proponujemy nie jest dla takich użytkowników bardzo nerdowych, tak, no bo jeżeli ktoś rzeczywiście ma to dobrze zorganizowane i chce korzystać z BigQuery, to pewnie sobie powyciąga dużo informacji, aczkolwiek still Revampr ma chociażby takie rzeczy jak moduł zarządzania, o którym tu dużo nie mówiliśmy, ale zarządzania i procedowania błędów, który tak naprawdę trochę jest alternatywą do znowuż przenoszenia

No, BigQuery jest do tego, żeby ściągać więcej danych, tak?

Jeżeli na poziomie ściągania danych samych w sobie, jeżeli ktoś jest zaawansowanym użytkownikiem, no to pewnie ogarnie to przy BigQuery.

Jeżeli ktoś nie chce stawiać BigQuery i generalnie płaci za to od pytania, konfigurować to, wyciągać samodzielnie te dane i gdzieś tam je zestawiać w tabelach, no to po to są też takie narzędzia, żeby ułatwiać nam życie i pracę.

No, chociażby te alerty, no bo właśnie wy też, a propos, bo też mówiliśmy też wcześniej, jak rozmawialiśmy o alertach i GSC i niedomaganiach, to forma powiadomień w GSC no jest...

Pierwsze to jest obszar danych, o których rozmawialiśmy i pobieramy dane z GSC i z GA.

po konkretnych urlach albo po katalogach

Więc to jest mega duży obszar.

Oczywiście wiadomo, że gorzej nie będzie tego wzrostu, ale też z tego powinieneś móc wyciągać jakieś wnioski.