Это свободный перевод статьи “How to write and submit a robots.txt file” из официальной справки Google.
Что вы узнаете в этой статье:
С помощью файла robots.txt вы можете указывать, какие файлы на вашем сайте будут видны поисковым работам. Файл robots.txt находится в корневом каталоге вашего сайта. К примеру, на сайте www.example.com
он находится по адресу www.example.com/robots.txt
.
Он является обычным текстовым файлом, соответствующим стандарту исключений для роботов и содержащим одно или несколько правил. Каждое из них запрещает или разрешает всем поисковым работам или выбранным доступ к определенному пути в домене или субдомене, в котором размещается файл robots.txt.
Все файлы считаются доступными для сканирования, если вы не указали иного в файле robots.txt.
Ниже приведён пример простого файла robots.txt с двумя правилами:
User-agent: Googlebot
Disallow: /nogooglebot/
User-agent: *
Allow: /
Sitemap: https://www.example.com/sitemap.xml
Объяснение:
https://example.com/nogooglebot/
.https://www.example.com/sitemap.xml
.Более подробно вы найдете описание в разделе Синтаксис .
Работа с файлом robots.txt включает четыре этапа:
Создать файл robots.txt можно в любом текстовом редакторе, таком как Блокнот, TextEdit, vi или Emacs. Не используйте оффисные программы (Word и подобные), поскольку они часто сохраняют файлы в проприетарном формате и добавляют в них лишние символы, например фигурные кавычки, не распознаваемые поисковыми роботами. Обязательно сохраните файл в кодировке UTF-8, если вам будет предложено выбрать кодировку.
Правила по формату и расположению файла
https://www.example.com/
он должен размещаться по адресу https://www.example.com/robots.txt
. Он не должен находиться в подкаталоге (например, по адресу https://example.com/pages/robots.txt
). Если вы не знаете, как получить доступ к корневому каталогу сайта, или у вас нет соответствующих прав, обратитесь к хостинг-провайдеру ( куда загружать файлы? ). Если у вас нет доступа к корневому каталогу сайта, используйте альтернативный метод, например meta-теги
.https://website.example.com/robots.txt
) или он может быть доступен через нестандартный порт (например, https://example.com:8181/robots.txt
)<strong>https://example.com/robots.txt</strong>
действует только для файлов, принадлежащих к домену <strong>https://example.com/</strong>
, но не к субдомену, такому как https://<strong>m.</strong>example.com/
, или не для других протоколов, например <strong>http</strong>://example.com/
.Правила – это указания для поисковых роботов, говорящие, какие разделы сайта можно сканировать. Добавляя правила к файлу robots.txt, учитывайте следующее:
User-agent
, которая определяет, к какому агенту адресованы правила в ней.disallow
.disallow: /file.asp
распространяется на URL https://www.example.com/file.asp
, но не на https://www.example.com/FILE.asp
#
означает начало комментария. При обработке комментарии игнорируются.Правила файлов robots.txt, которые поддерживает робот Google
user-agent:
(Обязательное правило может повторяться внутри группы). Определяет, к какому клиенту (поисковому роботу) относятся правила в группе. *
, чтобы заблокировать доступ для всех поисковых роботов (за исключением роботов AdsBot, которых нужно указывать отдельно). # Example 1: блокировать только Googlebot
User-agent: Googlebot
Disallow: /
# Example 2: блокировать Googlebot и Adsbot
User-agent: Googlebot
User-agent: AdsBot-Google
Disallow: /
# Example 3: блокировать всех роботов, кроме AdsBot (AdsBot нужно указывать отдельно в правилах)
User-agent: *
Disallow: /
disallow:
(каждое правило должно содержать не менее одной директивы disallow
или allow
). Указывает на каталог или страницу относительно корневого домена, который нельзя сканировать пользовательскому агенту. Если правило касается страницы, должен быть указан полный путь к ней, как в адресной строке браузера. В начале строки должен быть символ /
. Если правило касается каталога, строка должна оканчиваться символом /
.allow:
(каждое правило должно содержать не менее одной директивы disallow
или allow
). Указывает на каталог или страницу корневого домена, которые можно сканировать агенту пользователя. Используется для того, чтобы переопределить правило disallow
и разрешить сканирование подкаталога или страницы в закрытом для обработки каталоге. Если правило касается страницы, должен быть указан полный путь к ней, как в адресной строке браузера. В начале строки должен быть символ /
. Если правило касается каталога, строка должна оканчиваться символом /
.sitemap:
(Необязательная директива, которая может повторяться несколько раз или совсем не использоваться). Указывает на расположение файла Sitemap, используемого на сайте. URL файла Sitemap должен быть полным. Google не перебирает варианты URL с префиксами http и https или с элементом www и без него. Из файлов Sitemap роботы Google получают информацию о том, какой контент нужно сканировать и как отличить его от обрабатываемых материалов . Подробнее… Sitemap: https://example.com/sitemap.xml
Sitemap: https://www.example.com/sitemap.xml
Все правила, кроме sitemap
, поддерживают знак подстановки *
для обозначение префикса или суффикса пути, а также всего пути.
Строки, не соответствующие ни одному из этих правил, игнорируются.
Ознакомьтесь со спецификацией Google для файлов robots.txt , где подробно описаны все правила.
Сохраненный на компьютере файл robots.txt необходимо загрузить на сайт и сделать доступным для поисковых роботов. Специального инструмента для этого не существует, поскольку способ загрузки зависит от вашего сайта и серверной архитектуры, на нашем хостинге есть соответствующая статья .
Обратитесь к своему хостинг-провайдеру за дополнительными инструкциями или попробуйте самостоятельно найти документацию (пример запроса: » куда загружать файлы сайта «).
После загрузки файла robots.txt проверьте, доступен ли он для роботов и может ли Google обработать его.
Чтобы убедиться, что загруженный файл robots.txt общедоступен, откройте в браузере окно в режиме инкогнито (или аналогичное) и перейдите по адресу файла. Пример: https://example.com/robots.txt
. Если вы видите содержимое файла robots.txt, можно перейти к тестированию разметки.
Для этого Google предлагает два средства:
Когда вы загрузите и протестируете файл robots.txt, поисковые работы Google автоматически найдут его и начнут применять. С вашей стороны никаких действий не требуется. Если вы внесли в файл robots.txt изменения и хотите как можно быстрее обновить кэшированную копию, следуйте инструкциям в этой статье .
Ниже приведены несколько правил, часто используемых в файлах robots.txt.
Полезные правила | |
---|---|
Это правило запрещает сканировать весь веб-сайт. | Следует учитывать, что в некоторых случаях URL-адреса сайта могут индексироваться, даже если они не были просканированы. Обратите внимание, что это правило не относится к роботам AdsBot, которые нужно указывать отдельно. User-agent: * Disallow: / |
Это правило запрещает сканирование каталога со всем его содержимым. | Чтобы запретить сканирование целого каталога, поставьте слэш после его названия. Внимание: не используйте файл robots.txt для ограничения доступа к определенному контенту. Вместо этого используйте аутентификацию посетителей. URL адреса , сканирование которых запрещено в файле robots.txt, все же могут быть проиндексированы. Кроме того, злоумышленники могут просмотреть содержимое файла robots.txt и узнать, где находится контент, который вы хотите скрыть. User-agent: * Disallow: /calendar/ Disallow: /junk/ Disallow: /books/fiction/contemporary/ |
Это правило позволяет сканировать сайт только одному поисковику. | Сканировать весь сайт может только робот googlebot-news .User-agent: Googlebot-news Allow: / User-agent: * Disallow: / |
Это позволяет сканироваться всем поисковым работам кроме одного. | Робот Unnecessarybot не может сканировать сайт, а остальные могут.User-agent: Unnecessarybot Disallow: / User-agent: * Allow: / |
Это правило запрещает сканирование отдельной страницы. | Например, можно запретить сканирование страниц useless_file.html и other_useless_file.html каталог junk .User-agent: * Disallow: /useless_file.html Disallow: /junk/other_useless_file.html |
Это правило запрещает сканировать весь сайт, за исключением определенного подкаталога. | Поисковым работам предоставлен доступ только к подкаталогу public .User-agent: * Disallow: / Allow: /public/ |
Это правило скрывает определенное изображение от работы Google Картинок. | Например, вы можете запретить сканирование изображения dogs.jpg .User-agent: Googlebot-Image Disallow: /images/dogs.jpg |
Это правило скрывает все изображения на сайте от Google Картинок. | Google не сможет индексировать изображения и видео, которые недоступны для сканирования. User-agent: Googlebot-Image Disallow: / |
Это правило запрещает сканирование всех файлов данного типа. | Например, вы можете запретить работам доступ ко всем файлам .gif .User-agent: Googlebot Disallow: /*.gif$ |
Это правило запрещает сканировать весь сайт, но он может обрабатываться роботомMediapartners-Google | Робот Mediapartners-Google сможет получить доступ к закрытым от поискового робота страницам, чтобы подобрать объявление для показа тому или иному пользователю.User-agent: * Disallow: / User-agent: Mediapartners-Google Allow: / |
Воспользуйтесь символами подстановки * и $ для сопоставления URL, которые заканчиваются определенной строкой. | К примеру, можно исключить все файлы .xls User-agent: Googlebot Disallow: /*.xls$ |
Если эта информация оказалась полезной – поделитесь ею в соцсетях!