Instrukcje

Plik robots.txt: co to jest i jak go skonfigurować

Редакція Spilno Agency | 12 maj 2026 | 8 min czytania 13 wyświetleń
Plik robots.txt: co to jest i jak go skonfigurować

robots.txt to prosty plik tekstowy umieszczony w katalogu głównym witryny, który informuje roboty wyszukiwarek (crawlery), które strony lub sekcje mogą — lub nie powinny — być skanowane. Nie jest obowiązkowy, ale dla każdej witryny z więcej niż kilkoma podstronami stanowi podstawowe narzędzie zarządzania budżetem crawlowania i ochrony przed niechcianą indeksacją.

Poprawnie skonfigurowany robots.txt to pierwsza linia ochrony budżetu crawlowania. Nie zastępuje noindex, ale razem dają pełną kontrolę nad tym, co trafia do indeksu wyszukiwarki.

plik robots.txt

Czym jest plik robots.txt?

robots.txt to plik tekstowy implementujący protokół Robots Exclusion Protocol (REP), standard wprowadzony w 1994 roku. Musi być umieszczony w katalogu głównym domeny: https://site.com/robots.txt. Każdy crawler sprawdza ten plik przed rozpoczęciem skanowania witryny.

Plik zawiera zestawy reguł skierowane do konkretnych botów — Googlebot, Bingbot, AhrefsBot i innych. Możesz pisać osobne bloki reguł dla każdego bota lub jeden wspólny za pomocą User-agent: *.

Przykład minimalnego pliku robots.txt

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://site.com/sitemap_index.xml

Po co jest potrzebny plik robots.txt?

Istnieje kilka kluczowych powodów:

Składnia i dyrektywy pliku robots.txt

robots.txt używa prostej składni wiersz po wierszu. Każdy wiersz to jedna dyrektywa. Puste wiersze rozdzielają bloki reguł dla różnych botów.

User-agent

Określa, do którego crawlera stosują się reguły poniżej. Użyj *, aby objąć wszystkie boty.

User-agent: Googlebot
User-agent: *

Disallow

Mówi crawlerowi, że nie może odwiedzić wskazanej ścieżki. Pusta wartość (Disallow:) oznacza brak blokad.

Disallow: /wp-admin/
Disallow: /checkout/
Disallow: /private/

Allow

Jawnie zezwala na konkretną ścieżkę, nawet gdy katalog nadrzędny jest zablokowany przez Disallow.

Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Sitemap

Podaje adres URL mapy XML witryny. Możesz dodać kilka wierszy Sitemap.

Sitemap: https://site.com/sitemap_index.xml

Crawl-delay

Ustawia pauzę (w sekundach) między żądaniami bota. Obsługiwana przez Bing — nie przez Googlebot (użyj ustawień częstotliwości crawlowania w GSC).

User-agent: Bingbot
Crawl-delay: 2

Przykłady pliku robots.txt

Witryna WordPress

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-login.php
Disallow: /xmlrpc.php
Disallow: /?s=
Disallow: /feed/
Allow: /wp-admin/admin-ajax.php

Sitemap: https://site.com/sitemap_index.xml

Sklep internetowy

User-agent: *
Disallow: /cart/
Disallow: /checkout/
Disallow: /my-account/
Disallow: /wp-admin/
Disallow: /?orderby=
Disallow: /?filter_
Allow: /wp-admin/admin-ajax.php

Sitemap: https://shop.com/sitemap_index.xml

Strona firmowa (w pełni otwarta)

User-agent: *
Disallow:

Sitemap: https://company.com/sitemap.xml

Jak przetestować plik robots.txt?

Testowanie jest obowiązkowe przed każdą zmianą w pliku robots.txt.

robots.txt vs. noindex: jaka jest różnica?

To dwa odrębne mechanizmy o różnych konsekwencjach — mylenie ich to częsty błąd SEO.

Typowe błędy w pliku robots.txt

Checklista robots.txt

Najczęściej zadawane pytania

Czy plik robots.txt jest wymagany?

Nie, plik robots.txt nie jest obowiązkowy. Bez niego crawlery będą skanować całą witrynę. Jednak dla stron z panelami administracyjnymi, koszykami czy profilami użytkowników plik robots.txt jest niezbędny, aby zapobiec indeksacji stron technicznych.

Czy robots.txt blokuje strony w wynikach Google?

Nie. Dyrektywa Disallow blokuje wyłącznie crawlowanie — nie usuwa strony z indeksu. Jeśli zablokowany adres URL ma linki zewnętrzne, Google może go zaindeksować bez odwiedzania treści. Aby całkowicie wykluczyć stronę, użyj meta tagu noindex lub nagłówka X-Robots-Tag.

Jak sprawdzić poprawność pliku robots.txt?

Skorzystaj z Google Search Console → Ustawienia → Tester robots.txt. Wpisz adres URL, aby sprawdzić, czy crawlowanie jest dozwolone. Możesz też sprawdzić plik terminalem: curl -s https://twojastrona.pl/robots.txt

Czy WordPress potrzebuje własnego pliku robots.txt?

WordPress generuje domyślny plik robots.txt przez wirtualne API. Dla pełnej kontroli — blokady wp-admin, udostępnienia zasobów wtyczek, dodania adresu sitemapy — zastąp go fizycznym plikiem lub skonfiguruj przez Yoast SEO albo Rank Math.

Jaka jest różnica między robots.txt a noindex?

robots.txt kontroluje crawlowanie: mówi robotom, czy mogą odwiedzić URL. noindex kontroluje indeksację: pozwala robotowi odwiedzić stronę, ale nakazuje jej nie indeksować. Blokada crawlowania przez robots.txt nie gwarantuje usunięcia URL z indeksu, jeśli już tam jest.

Bezpłatny audyt pliku robots.txt

Potrzebujesz audytu pliku robots.txt lub pełnego przeglądu technicznego SEO? Spilno Agency przeanalizuje konfigurację crawlowania, naprawi błędy i zoptymalizuje plik pod maksymalną efektywność.

Редакція Spilno Agency Spilno Agency Wszystkie artykuły autora →
← Powrót do bloga