Robots.txt
Добрый день!
Подскажите, какие самые первоначальные строки нужно внести в robots на данной cms?
Поиск, фильтры и прочее
Добрый день!
Подскажите, какие самые первоначальные строки нужно внести в robots на данной cms?
Поиск, фильтры и прочее
15 ответов
Обычно хватает вот этого
Иногда можно по желанию добавить ещё примерно такие строки
Хотя в сортировках и фильтрах должен работать canonical, поэтому особо можно и не напрягаться с их блокировкой в robots. Разрешать к индексации результаты сравнения и поиска или нет тоже дело личное.
Мой robots.txt
При таком раскладе достаточно одной первой строки ;-)
Остальные чтобы наверняка =)))))))
И не забудьте прописать несколько
Универсальный robots.txt для shop script и инструкция по внедрению:
https://chikurov-seo.ru/blog/u...
Там куча дублирующихся строк.
Логика работы первой и второй строки не отличается, достаточно только второй.
В итоге тот роботс можно очень сильно сократить без потери директив.
Согласен. Это:
Можно заменить на это:
Спасибо за замечание. Поправлю эту недоработку. Тем не менее, это очень несущественно.
P.S. Вы бы на своих сайтах robots.txt настроили.
Никуда не годится:
1. Повторюсь - к Вебасисту и https://webasyst.ru/ отношения не имею.
2. На Вас никто не нападает, поэтому нет необходимости защищаться. Просто обсуждаем.
Не хотите - не будем обсуждать. Ваш роботс попался просто для примера в рамках обсуждения, поэтому ничего личного, как говорится.
Директива Host: применялась только для Яндекса, а не для User-agent: *
Но, это было раньше. Яндекс уже давно тоже отказался от ее поддержки и смотрит только на редирект. В общем - Host: не нужна уже никому.
Чтобы долго не спорить по этому вопросу, вот пруф - https://webmaster.yandex.ru/bl...
Вообще, самый минимум того, что нужно, описан тут https://support.webasyst.ru/sh...
Вот вы пишите про устаревшую директиву Host, при этом ссылаетесь на свою статью, а в ней используете другую устаревшую директиву Crawl-delay. Боты гугла и яндекса я тоже давно не используют. Пруфы загуглите самостоятельно.
Вы тут сильно путаете теплое с мягким.
1. Я да, пишу про Хост, причем тут другие директивы? Я про них ничего не говорил.
2.
Я ссылаюсь на статью из Вебасистовской справки. К Вебасисту имею примерно такое же отношение как и Вы, может даже немного меньшее.
3. Crawl-delay всегда считал вредной директивой.
прошу прощения, думал вы из этих =)
Посмотрел предложенный robots.txt и что-то показалось мне в нём очень подозрительным.
Затем взял только самое подозрительное и прогнал на Вебмастере Яндекса на очистку параметров. Можно было бы взять файл целиком, но дебажить сложнее будет, а в указанном куске кода всё что нужно есть и последовательность строк сохранена.
Проверил пару URL (скриншот слегка подпилил, чтобы был компактнее)
Потом проверил свой robots.txt на тех же самых адресах
Весь смысл Clean-param в предложенном универсальном robots.txt потерян. Либо Clean-param надо выпилить из файла вообще, либо применять без ошибок.
возможно, вы не в курсе, но последовательность строк в robots.txt вообще не имеет значения. Приоритетность задается длиной правил.
Что значит "применять clean-param без ошибок"? Ну да, в моем robots.txt условная страница site.ru/category/?nomobile=1 закрыта одновременно через Disallow и Clean-param. Ну и чё? Какой такой "смысл" потерян?