Search Console · SEO Automation · 06.05.2026 · 6 MIN

Dziwne zapytania w GSC z -site:reddit.com - co to jest i jak odfiltrować

Dziwne zapytania w GSC z wykluczeniami social mediów - przykład z AI botów

Otwierasz Google Search Console i widzisz listę zapytań z -site:reddit.com -site:twitter.com? To nie spam, to AI boty. Pokazuję na własnej domenie ile twoich wyświetleń jest fake.

Otwierasz Google Search Console pierwszy raz po dłuższej przerwie i widzisz coś dziwnego: lista najczęstszych zapytań wygląda jak bełkot. „kurs seo" -site:reddit.com -site:twitter.com -site:x.com -site:wykop.pl -site:tripadvisor.com -site:youtube.com -site:yelp.com -site:booking.com -site:facebook.com -site:instagram.com -site:tiktok.com. Serio? Nikt tego nie wpisuje ręcznie.

To nie jest spam. To nie jest atak. To są AI boty - ChatGPT, Perplexity, Google AI Overviews, Gemini - które scrapują wyniki Google żeby wygenerować odpowiedź dla swojego użytkownika. W GSC liczy się to jako wyświetlenie tak samo jak gdyby zobaczył to człowiek.

Sprawdziłem to na mojej domenie. 37 wyświetleń w 11 dni od uruchomienia. Po filtrze który wyklucza zapytania botów - zostaje 0. Nie pięć, nie dwa. Zero.

Ten artykuł jest o tym co to za zapytania, dlaczego się pojawiają, jak je odfiltrować w 5 krokach i co to oznacza dla pracy z GSC w 2026. Krótko, konkretnie, z liczbami z mojej domeny.

01. Co to w ogóle jest

Krótko: AI boty scrapują Google. Każda odpowiedź ChatGPT z trybem przeglądania, każde AI Overview nad wynikami Google, każda odpowiedź Perplexity zaczyna się od kilku zapytań do wyszukiwarki. Boty wpisują query, dostają wyniki, wyciągają content, idą dalej.

Charakterystyczna rzecz: boty dodają długą listę wykluczeń -site: żeby uniknąć źródeł które uznają za niskiej jakości. Reddit, Twitter, fora, YouTube, TikTok, agregatory opinii. Schemat jest tak powtarzalny że można go rozpoznać na pierwszy rzut oka.

Anatomia zapytania bota - co tu jest co

Typowe zapytanie AI bota - tak to widać w GSC

"kurs seo" -site:reddit.com -site:twitter.com -site:x.com -site:wykop.pl -site:tripadvisor.com -site:yelp.com -site:booking.com -site:facebook.com -site:instagram.com -site:youtube.com -site:tiktok.com

Lista wykluczeń jest dłuższa, ale schemat zawsze podobny - keyword w cudzysłowie + 8-12 -site:

01

Twoje słowo kluczowe

KEYWORD W CUDZYSŁOWIE

To zwykle wpisuje człowiek - ale tu nie. Cudzysłów wymusza dokładne dopasowanie frazy.

02

Wykluczenia social mediów

-SITE: REDDIT, X, TWITTER...

Bot nie chce odpowiedzi z forów i mediów społecznościowych. Bierze tylko "klasyczne" strony.

03

Wykluczenia agregatorów

-SITE: TRIPADVISOR, BOOKING, YELP

Strony z opiniami i bookowaniem są filtrowane bo zwykle nie zawierają oryginalnej treści.

04

Wykluczenia video

-SITE: YOUTUBE, TIKTOK

Bot nie ogląda filmów. YouTube i TikTok są wycinane bo content jest w video, nie w tekście.

To nie jest losowy spam. To są precyzyjnie skonstruowane queries kilku największych systemów AI którzy walczą o ten sam typ contentu - oryginalny, w pełnym tekście, niefragmentaryczny.

Kto za tym stoi

W GSC nie zobaczysz „ChatGPT zrobił to zapytanie" - boty są anonimowe, Google liczy je jak normalne wyświetlenia. Ale po wzorcach wykluczeń da się dość pewnie zgadywać kto co dodaje.

Kto generuje te zapytania w GSC

SGE

Google · PL: maj 2024

Google AI Overviews

Generuje odpowiedź AI nad zwykłymi wynikami. Korzysta z własnego indeksu Google bezpośrednio - nie pojawia się w GSC jako klasyczne zapytanie z -site:, ale generuje wyświetlenia twojej strony pod ich własnymi prompts.

OAI

OpenAI · browse: 2024+

ChatGPT (browse)

Kiedy użytkownik prosi ChatGPT o "sprawdź w internecie", model wysyła zapytania do Bing i Google. Często z dodatkiem -site:reddit.com żeby uniknąć "wikiowego" tekstu z forów.

PPLX

Perplexity AI · od 2023

Perplexity

Search-first AI - każda odpowiedź zaczyna się od scrapowania Google. Słynie z agresywnych wykluczeń: -site:youtube.com -site:tiktok.com -site:reddit.com to standard.

GEM

Google · deep research: 2024+

Gemini (deep research)

Tryb Deep Research wysyła kilkadziesiąt zapytań do Google na jeden temat. Jako produkt Google ma dostęp wewnętrzny, ale reszta widać jako klasyczne queries z -site:.

Każdy z tych systemów wysyła dziesiątki tysięcy zapytań dziennie do Google. Twoja strona pojawia się w niektórych z nich i każde takie pojawienie się to wyświetlenie w GSC.

02. Dlaczego Google to liczy

Bo Google liczy każde wyświetlenie w SERP. Nie sprawdza kto wyświetla. Nie sprawdza czy ktoś kliknie. Nie sprawdza czy IP należy do bota czy człowieka. Strona pojawiła się w wynikach na zapytanie X = wyświetlenie do raportu.

Dla bota klikanie nie ma sensu - on scrapuje content bezpośrednio z URL który widzi w SERP. Dlatego ten typ wyświetleń ma stale 0% CTR. Dla całej domeny może to dać efekt który wygląda jak rankingi (pozycja 5,3) ale ze zerowym CTR.

W praktyce twój GSC pokazuje sumę dwóch zupełnie różnych zjawisk:

  • Realny ruch - ludzie szukają, klikają, czytają, wracają
  • Bot ruch - AI scrapują, używają contentu w odpowiedziach, nigdy nie odwiedzają

I jeśli jesteś w GSC bez filtra, mieszasz oba. Decyzje SEO z mieszanych danych są warte mniej niż mogłoby się wydawać.

03. Brutalne dane z mojej domeny

To nie jest abstrakcja. Pokazmnie.pl - blog na którym jesteś teraz - to świeża domena (live od 2026-04-26, 11 dni). 4 strony zindeksowane. 37 wyświetleń, średnia pozycja 5,3.

Liczby brzmią OK do momentu kiedy włączasz filtr.

pokazmnie.pl - 11 dni od startu, dane z GSC

Bez filtra (raw)

Filtr "niezawiera -site:" (ludzie)

Wyświetlenia

37

100% wyświetleń to boty

0

Średnia pozycja

5,3

Pozycja "5.3" to fikcja

0

Kliknięcia

0

Boty nie klikają

0

CTR

0%

Matematycznie nieokreślony (0/0)

0%

Okres: 26.04.2026 - 6.05.2026 (od uruchomienia) / domena pokazmnie.pl

100% wyświetleń mojej strony pochodzi od botów. Po filtrze niezawiera -site: zostaje zero realnych wyświetleń. Nie było ani jednego momentu w tych 11 dniach kiedy człowiek zobaczył tę stronę w wynikach Google.

To nie znaczy że strona jest źle zrobiona. Znaczy że jest młoda i jeszcze nie dotarła do ludzkich zapytań w SERP. Ale rankingi które GSC mi pokazywał były fikcją. Pozycja 1,3 dla „podstawy seo" pochodziła z zapytań Perplexity, nie z polskich SEO-owców.

Gdyby tego nie sprawdzić, mógłbym chwalić się top 1 dla kluczowych fraz. Albo rozkopać sobie głowę „dlaczego CTR jest 0% przy pozycji 1". Odpowiedź: bo bot nie kliknie, a ludzie tej strony jeszcze nie widzą.

04. Jak to odfiltrować w GSC - 5 kroków

Filtr w GSC działa darmowo i zostaje aktywny przez całą sesję. Konfiguracja jednorazowa, można potem przełączać między widokami.

5 kroków - filtr botów AI w GSC

  1. 01

    Otwórz GSC > Skuteczność

    Lewy panel, sekcja "Skuteczność". Domyślnie pokazuje wszystkie zapytania - włącznie z botami.

  2. 02

    Kliknij "+ Dodaj filtr"

    Przycisk w prawym górnym rogu, obok wyboru typu wyszukiwania. Otworzy się dropdown z opcjami filtra.

  3. 03

    Wybierz "Zapytanie"

    Pierwsza opcja na liście. Otworzy się modal z konfiguracją filtra dla zapytań.

  4. 04

    Zmień dropdown na "Zapytania niezawierające"

    Domyślnie ustawione na "zawierające" - klikasz i zmieniasz na "niezawierające" (druga opcja w dropdown).

  5. 05

    Wpisz "-site:" i Zastosuj

    Dokładnie w tej formie: minus, słowo "site", dwukropek. Klik "Zastosuj". Filtr zostaje aktywny dopóki nie usuniesz go ręcznie.

Po zastosowaniu filtra wszystkie metryki na górze (kliknięcia, wyświetlenia, CTR, pozycja) pokazują dane tylko z zapytań niezawierających -site:. Tabela zapytań pod spodem też. Eksport CSV - tylko ludzie.

Mała wskazówka dla precyzji

Filtr niezawiera -site: wycina prawie wszystkie boty, ale niektóre AI używają operatora inurl: zamiast -site: albo wcale nie używają wykluczeń. Jeśli widzisz dziwne queries bez -site: (np. zaczynające się od inurl: albo długie listy operatorów OR) - to też mogą być boty. Ale to mała grupa. Zaczynamy od najprostszego filtra na 99% przypadków.

05. Czego NIE robić z surowymi danymi

Najczęstszy błąd: bierzesz cały GSC bez filtra i wyciągasz wnioski jak gdyby to były ludzkie dane. W 2026 to zafałszowane wnioski.

Mity przy czytaniu surowych danych z GSC

„Mam pozycję 1 dla kursu SEO" - jeśli to z bota, nic nie znaczy
„Trzeba poprawić CTR" - 0% CTR przy 100% botów to matematyka, nie problem
„Strona ma ruch w wyszukiwarce" - sprawdź najpierw filtr -site:
„Wzrost wyświetleń = wzrost SEO" - może to po prostu więcej AI scraperów
„Te zapytania to spam, można zgłosić" - nie da się, Google to liczy
„Kupimy narzędzie które to ogarnie" - GSC ma filtr za darmo, wystarczy

Każdy z tych mitów prowadzi do złych decyzji. Optymalizujesz title tag pod query na które „masz pozycję 1" - a to query nigdy nie zostało wyszukane przez człowieka. Walczysz z 0% CTR - a CTR jest 0% bo to boty. Kupujesz narzędzie reputation/SEO które „rozszerza dane GSC" - a dane były rozdmuchane przez boty od początku.

06. Co to oznacza dla pracy z GSC w 2026

Dwie zmiany w sposobie patrzenia na dane:

Po pierwsze - default ustawiony na filtr. Zaczynam każdą sesję w GSC z włączonym filtrem niezawiera -site:. Bez filtra wchodzę tylko gdy konkretnie chcę zobaczyć co AI z nas scrapują (osobny use case, np. monitoring AI search visibility).

Po drugie - dwa raporty z każdej domeny. Eksport raz w miesiącu: jeden ze wszystkim, drugi tylko ludzie. Patrzę na obydwa, ale decyzje SEO z drugiego. Pierwszy daje kontekst „ile bot ruchu mamy" i czy rośnie (rośnie, w tempie kilku procent miesięcznie).

Czego można się spodziewać dalej: bot ruch w GSC będzie rósł. AI Overviews dopiero startuje w pełnej skali w Polsce. Perplexity i ChatGPT rozszerzają tryby przeglądania. Gemini Deep Research wysyła kilkadziesiąt zapytań na jeden temat. Za rok GSC bez filtra może pokazywać 80-90% bot wyświetleń dla młodych domen. Filtr stanie się obowiązkowy nie opcjonalny.

Różnica między „raw GSC" a „rzeczywistością" tylko się powiększy. Lepiej nauczyć się tego patrzeć teraz, niż za rok odkrywać że pół rocznych raportów było rozdmuchane.

Zacznij dziś

Trzy ruchy, każdy w 2 minuty.

Pierwszy - wejdź teraz do GSC > Skuteczność. Daj filtr „Zapytania niezawierające -site:". Zobacz co zostaje z twoich danych za ostatnie 3 miesiące. Może być zaskoczenie. Może być potwierdzenie że masz realny ruch. W obu przypadkach wiesz więcej niż 5 minut temu.

Drugi - wyeksportuj dwa CSV za ten sam okres: jeden z filtrem, drugi bez. Porównaj różnicę procentową w wyświetleniach. To jest twoja „miara obecności AI" na twojej domenie. Powtórz za miesiąc, za trzy. Trend ci dużo powie.

Trzeci - sprawdź pozycje w które najbardziej wierzyłeś. Top 1 dla jakiegoś keyword w GSC? Włącz filtr. Jeśli pozycja zniknęła, to znaczy że było to z botów. Jeśli zostaje - masz realny ranking i można na nim pracować dalej.

Filtr niezawiera -site: to nie jest hack. To jest poprawka która powinna być default w GSC, ale nie jest. Google liczy boty, my musimy się od nich odfiltrować ręcznie. Zajmuje to 5 sekund, zostaje aktywne przez sesję. To najtańszy upgrade jakości twoich danych SEO w 2026.

Masz pytanie do tego artykułu, sprawdziłeś swoje GSC po filtrze i widzisz coś dziwnego, chcesz pokazać konkretny przypadek? Napisz mailem na kontakt@pokazmnie.pl. Czytam każdą wiadomość. Im więcej realnych przypadków zobaczę z różnych domen, tym lepsze będą kolejne artykuły o danych z produkcji.

POWIĄZANE ARTYKUŁY