Как проверить файл robots.txt на ошибки индексации в валидаторе?

Чтобы проверить файл robots.txt на ошибки индексации в валидаторе, перейдите по ссылке и в поле “Проверяемый сайт” вставьте URL вашего сайта или нужной страницы.

На данной странице ниже, в поле “Разрешены ли URL?”, можно вставить ссылки на определенные страницы и проверить, доступны ли они для индексации.

Часто возникают ошибки и ненужные страницы (например, в формате /?customize_theme) попадают в индексацию из-за добавленной в файл robots.txt директивы

User-agent: Yandex

Т.е. при добавлении данной директивы все остальные правила для всех/других поисковиком (например, все правила директивы User-agent: *) Яндекс игнорирует.

Поэтому откройте файл robots.txt и уберите строку с данной директивой и все строки после неё, кроме строки с картой сайта

Sitemap: https://ваш_сайт/sitemap.xml
Вам помог ответ?
Похожие вопросы
Что делать, если украли сайт или контент?
+63
Как включить режим отладки?
+6
Как настроить AMP и турбо-страницы?
+4
Каким способом лучше убрать слово «category» из URL рубрики?
+34
Нужно ли устанавливать плагин кеширования?
+3
Как задать ширину видео в мобильной версии
+3
Как предоставить доступы?
+2
Как исключить некоторые рубрики на главной странице?
+2
Почему в Гугл.Вебмастере выдается ошибка "Страница не оптимизирована для мобильных устройств"?
+18
Какой хостинг подходит для хороших результатов в PageSpeed?
+16
Как исключить некоторые записи на главной странице?
+1
Как получить список доступных шорткодов в Wordpress
+1
Как добавить уведомление об использовании Cookie?
+1
Как настроить главную страницу на сайте WordPress?
+1
Почему WordPress-сайт имеет плохие результаты в PageSpeed?
+1
Версии WordPress и PHP, с которыми работают наши продукты
+1
Как создать версию сайта для слабовидящих?
+0
Как исправить форматирование в классическом редакторе?
+0
Почему сайт с нашей темой имеет низкие баллы (показатели) PageSpeed?
+0
Как узнать ID записи, страницы, рубрики, тега, товара и категории товара в WordPress?
+0