Гайди

Файл robots.txt: що це таке і навіщо потрібен

Редакція Spilno Agency | 12 Тра 2026 | 3 хв читання 68 переглядів
Файл robots.txt: що це таке і навіщо потрібен

Файл robots.txt — це простий текстовий файл у корені сайту, який повідомляє пошуковим роботам (crawlers), які сторінки або розділи дозволено або заборонено сканувати. Він не є обов’язковим, але для будь-якого сайту з більш ніж десятком сторінок — це базовий інструмент управління краулінговим бюджетом і захисту від небажаної індексації.

Правильно налаштований robots.txt — це перша лінія захисту краулінгового бюджету. Він не замінює noindex, але разом вони дають повний контроль над тим, що потрапляє в пошук.

robots.txt для сайту

Що таке robots.txt

robots.txt — текстовий файл стандарту Robots Exclusion Protocol (REP), розробленого ще у 1994 році. Він розміщується виключно в корені домену: https://site.com/robots.txt. Пошуковий бот перевіряє цей файл перед початком сканування сайту.

Файл містить набір правил для різних ботів: Googlebot, Bingbot, AhrefsBot тощо. Можна задати окремі правила для кожного або одне загальне для всіх через User-agent: *.

Приклад мінімального robots.txt

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://site.com/sitemap_index.xml

Навіщо потрібен robots.txt

Основних причин кілька:

Синтаксис та директиви robots.txt

robots.txt має простий синтаксис: кожен рядок — одна директива. Порожні рядки розділяють блоки правил для різних ботів.

User-agent

Вказує, до якого бота застосовуються правила нижче. * означає всіх ботів.

User-agent: Googlebot
User-agent: *

Disallow

Забороняє боту сканувати вказаний шлях. Порожнє значення (Disallow:) означає дозвіл на всі шляхи.

Disallow: /wp-admin/
Disallow: /checkout/
Disallow: /private/

Allow

Явно дозволяє конкретний шлях навіть якщо батьківська директорія закрита через Disallow.

Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Sitemap

Вказує URL XML-карти сайту. Можна вказати кілька рядків Sitemap.

Sitemap: https://site.com/sitemap_index.xml

Crawl-delay

Затримка між запитами бота в секундах. Підтримується Bing, але не Googlebot (для Google налаштовуйте через GSC).

User-agent: Bingbot
Crawl-delay: 2

Приклади robots.txt

WordPress-сайт

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-login.php
Disallow: /xmlrpc.php
Disallow: /?s=
Disallow: /feed/
Allow: /wp-admin/admin-ajax.php

Sitemap: https://site.com/sitemap_index.xml

Інтернет-магазин

User-agent: *
Disallow: /cart/
Disallow: /checkout/
Disallow: /my-account/
Disallow: /wp-admin/
Disallow: /?orderby=
Disallow: /?filter_
Allow: /wp-admin/admin-ajax.php

Sitemap: https://shop.com/sitemap_index.xml

Корпоративний сайт (повністю відкритий)

User-agent: *
Disallow:

Sitemap: https://company.com/sitemap.xml

Як перевірити robots.txt

Перевірка robots.txt — обов’язковий крок перед та після будь-яких змін.

robots.txt vs noindex: в чому різниця

Це часто плутають, але це різні механізми з різними наслідками.

Типові помилки в robots.txt

Чек-ліст robots.txt

Поширені питання

Чи обов’язковий файл robots.txt?

Ні, robots.txt не є обов’язковим. Якщо файл відсутній, пошукові роботи сканують весь сайт. Але для сайтів із закритими розділами (адмін-панель, кошик, особистий кабінет) robots.txt необхідний для захисту від індексації службових сторінок.

Чи блокує robots.txt індексацію сторінок?

Ні. Директива Disallow забороняє лише краулінг (сканування). Якщо на закриту сторінку є зовнішні посилання, Google може проіндексувати її URL без відвідування вмісту. Для повного виключення з індексу використовуйте мета-тег noindex або X-Robots-Tag.

Як перевірити, що robots.txt налаштований правильно?

Використайте Google Search Console → Інструменти → Перевірка robots.txt. Введіть URL сторінки й побачите, чи дозволений краулінг. Також можна перевірити через curl: curl -s https://site.com/robots.txt

Чи потрібен robots.txt для WordPress?

WordPress автоматично генерує базовий robots.txt через API. Але для гнучкого налаштування (закрити wp-admin, відкрити певні плагіни, додати Sitemap) рекомендується замінити його власним файлом або використати плагін Yoast SEO / Rank Math.

Яка різниця між robots.txt і noindex?

robots.txt керує краулінгом — забороняє або дозволяє боту відвідувати URL. noindex керує індексацією — дає боту дозвіл відвідати сторінку, але наказує не додавати її до індексу. Заборона краулінгу через robots.txt не гарантує видалення з індексу, якщо URL вже там.

Спробуйте безкоштовний аудит

Потрібен аудит robots.txt або технічне SEO вашого сайту? Spilno Agency проведе перевірку, виправить помилки та налаштує файл для максимальної ефективності краулінгу.

Редакція Spilno Agency Spilno Agency Всі статті автора →
← Повернутися до блогу