Как добавить правильный Robots.txt для WordPress

Создаем Robots txt для WordPress

Чтобы поисковые системы правильно индексировали ваш блог, достаточно правильно составить файл Robots txt для WordPress. Разберемся, как правильно создать, что в нем прописать и как установить.

Для чего нужен и где лежит Роботс

Предназначен для поисковиков и их роботов, для правильного индексирования страниц сайта. Директивы в содержимом файла четко указывают, какой контент нужно показывать в поиске.

Этот инструмент позволит выдавать Googl’ом или Яндексом только полезное содержимое ресурса.

Файл Robots.txt располагается в корневом каталоге сайта. Его содержимое должно быть доступно по адресу

https://site.ru/robots.txt

Не могу найти Robots.txt

Если по указанному выше URL-адресу содержимое файла доступно, но физически его нет в корневой папке веб-ресурса, то значит он создан виртуально. Это не ошибка, а возможность движка ВордПресс.

Директивы robots.txt

  • User-agent — правила для поисковых роботов.
  • Disalow — запрет индексирования.
  • Allow — разрешение.
  • Sitemap — путь к XML-карте.

 

Пример Роботс для ВордПресс

Для каждого сайта содержимое файла отличается.

Вот список директив для типичного WP-сайта.

User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-content/cache
Disallow: /wp-json/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /license.txt
Disallow: /readme.html
Disallow: /trackback/
Disallow: /comments/feed/
Disallow: /*?replytocom
Disallow: */feed
Disallow: */rss
Disallow: /author/
Disallow: /?
Disallow: /*?
Disallow: /?s=
Disallow: *&s=
Disallow: /search
Disallow: *?attachment_id=
Allow: /*.css
Allow: /*.js
Allow: /wp-content/uploads/
Allow: /wp-content/themes/
Allow: /wp-content/plugins/
Sitemap: https://site.ru/sitemap_index.xml

В первой строке говорится, что содержимое сайта могут обходить все поисковые роботы.

Строки с Disallow запрещают индексировать:

  • ленты RSS (Feed);
  • страницы авторов, поиска и вложений;
  • служебные папки и файлы;
  • кэш;
  • страницы входа в систему и регистрации.

С Allow роботам доступны:

  • скрипты и стили;
  • файлы загрузок, тем и плагинов.

Последняя строка — путь к XML-карте со списком полезного содержимого.

Как создать правильный robots.txt

Разберем несколько способов.

Вручную

Метод сводится до создания обычного текстового файла: в любом текстовом редакторе на локальном сервере или с помощью FTP-клиента на сервере хостинга.

Через ВП-плагины

Разберем лучшие из них.

Clearfy Pro

Это премиум-решение, которое создает виртуальный файл Роботс. Для этого

  1. Перейдите в раздел Clearfy Pro.
  2. Откройте вкладку SEO.
  3. Задействуйте Создать правильный robots.txt.
  4. Впишите директивы.
  5. Сохраните изменения.

Если нужно изменить содержимое, откройте эту опцию еще раз и сохраните.

Создание и настройка файла robots.txt в плагине Clearfy Pro

Промокод на Clearfy -15%

Yoast SEO

Этот СЕО-модуль для WP также справится с задачей.

1. Перейдите SEO > Инструменты.

2. Нажмите Редактор файлов.

Инструменты плагина Yoast SEO

3. Если этот файл в корневой папке отсутствует, нажмите Создать файл robots.txt.

Создание файла robots.txt в Yoast SEO

4. Если он есть, то откроется редактор.

Редактирование robots.txt в плагине Yoast SEO

5. Если изменили содержимое, кликните по кнопке ниже.

All in One SEO Pack

Еще один бесплатный SEO-инструмент, который тоже отлично решит задачу.

1. В админке откройте All in One SEO > Модули.

2. Из списка выберите одноименное название модуля и кликните Activate.

Активация модуля для работы с robots.txt в All in One SEO Pack

3. Перейдите All in One SEO > Robots.txt.

4. В полях укажите нужные директивы.

Редактирование robots.txt в All in One SEO Pack

Настройка Robots.txt для интернет-магазинов на основе WooCommerce

Для этого расширения тоже есть свои директивы.

Disallow: /cart/
Disallow: /checkout/
Disallow: /*add-to-cart=*
Disallow: /my-account/

Рейтинг
( Пока оценок нет )
Михаил Петров/ автор статьи
Загрузка ...
Шаблоны для WordPress