расставляй правильно приоритеты и не отвлекайся на мелочи

Настраиваем robots.txt для мультисайтового WordPress

В предыдущей статье я упоминал о том, что в мультисайтовой конфигурации WordPress, если Вы хотите пользоваться возможностью иметь для каждого домена свой собственный sitemap.xml, Вам потребуется для каждого домена иметь свой файл robots.txt.

Сделать это можно с помощью полезного плагина KB Robots.txt который специально «затачивался» под WP-MU и прекрасно работает в WordPress 3.

Каких-либо проблем с его запуском быть в принципе не должно, все просто:

  • разворачиваем его в директорию /wp-content/plugins/
  • активируем в админской панели сайта
  • заходим в параметры KB Robots.txt и прописываем необходимые строки для robots.txt

Наличие данного плагина в связке с Google (XML) Sitemaps Generator, позволяет указывать на файлы sitemap.xml для различных доменов.

Если Вы пользуетесь хаком описаным в предыдущей статье, то файлы robots.txt, к примеру, могут выглядеть вот так:

Для ivanov.blog.ru

User-agent: *
Disallow:
Sitemap: http://ivanov.blog.ru/sitemap-ivanov.blog.ru.xml
Sitemap: http://ivanov.blog.ru/sitemap-ivanov.blog.ru.xml.gz

Для petrov.blog.ru

User-agent: *
Disallow:
Sitemap: http://petrov.blog.ru.ru/sitemap-petrov.blog.ru.xml
Sitemap: http://petrov.blog.ru.ru/sitemap-petrov.blog.ru.xml.gz

Статейка получилась маленькая, но дабы не преуменьшить важности упоминаемого плагина решил посветить ему отдельный пост. Спасибо автору сего творения.

Ответить
Обязательные поля помечены *