Урл с окончанием /?cart=quick_full ?
День добрый. Вебмастер сегодня высветил все страницы товаров прилепив это окончание с комментарием - "возможные проблемы" - отсутствует тайтл и описание. Откуда могут получится такие урлы, пример https://www.soultex.ru/product/polotentse_arya_odnotonnoe_miranda_soft_100x150_sm_korallovyj/?cart=quick_full
8 ответов
Проблема не в том, что на данных страницах отсутсвует Title/description, а в том, что данные страницы вообще проиндексировались поисковыми системами.
У вас в исходном коде страниц товаров выводятся такие ссылки. Вероятно, создатель темы дизайна (или специалист, который ее дорабатывал) не знает основ верстки, дружественной к SEO.
В идеале, порядок действий должен быть такой:
1) доработать тему дизайна и удалить из исходного кода страниц товаров ссылку на страницу "/?cart="
2) запретить страницу "/?cart=" от индексации метатегом noindex (<meta name="robots">)
3) одновременно с п. 2 проставить каноникал на обычную страницу товара
4) подождать пару месяцев, пока поисковые системы переобойдут все проиндексированные ранее страницы "/?cart="
5) запретить сканирование страниц "/?cart=" в robots.txt
- для выполнения 2-го пункта можно использовать плагин SEO Meta Robots (настраивайте плагин по стандартной инструкции в документации)
- для выполнения 3-го пункта можно использовать плагин SEO Link Canonical (настраивайте плагин по стандартной инструкции в документации)
- для выполнения 5-го пункта можно подсмотреть шаблонный robots.txt тут (страница в свободном доступе).
* В шаблонном robots.txt закрыты для сканирования все страницы с get-параметрами, кроме "?page=". Это поможет не только решить текущую проблему конкретно со страницами "/?cart=", но и предотвратить подобные проблемы с другими подобными страницами в будущем.
спасибо за ответ. часть вопросов уже сделал.
Если что, порядок действий важен. Если вы сразу в лоб закрыли страницу от сканирования, это не очень хорошо:
- Гугл вообще не будет выплевывать страницу из индекса (подробнее о разницы между запретом на "Сканирование" и запретом на "Индексацию" читайте в справке Гугла).
- С Яндексом такой проблемы нет (у них запрет на сканирование подразумевает запрет на индексацию). Яндекс выплюнет страницу из индекса, но не передаст вес с этой страницы на основную страницу товара (есть вероятность, что страницы успели набрать какой-то вес и по канониклу этот вес можно передать на основные страницы товаров).
да, я понял, спасибо. Но первые два пункта вряд-ли реализуемы, так как с помощью таких страниц отрабатывается определенный механизм в теме и править никто не будет. Страницы нарисовались в Яндексе только сегодня, так что о весе там говорить не приходиться. А в гугле они и не появились.
механизм можно переписать, чтобы ссылок в коде не было, а функционал так же исправно работал.
конечно можно )). Но мне вчера один разработчик плагина не захотел просто бесплатно на сайт зайти и посмотреть - проблема с плагином или нет. Без решения даже вопроса.
Многие разработчики поступают так:
1. Вы оплачиваете 1 час работы.
2. Разработчик смотрит и если проблема не в плагине - то оставляет себе деньги за аудит.
3. Если проблема в плагине и он не переписан, и проблема подтверждается на чистой установке. деньги вам вернут и плагин поправят.
Схема родилась из-за того, что огромное число заказчиков просто хотят чтобы после покупки плагина им установили, настроили интегрировали, "мы ведь деньги заплатили". Поэтому вполне разумно, что "просто зайти бесплатно на сайт" - это потеря время и как следствие денег. Кроме того варианты когда клиенты просто присылают доступы со словами "разберитесь у меня ошибка" встречаются крайне часто. И по секрету скажу в 98% случаев ошибка не там.
Да, порядок и все, что этому сопутствует - мне понятно. Но я обращаюсь к разработчикам только по крайней необходимости, в основном стараюсь делать сам. Пока это был первый, кто запросил оплату вперед. Но, видимо, времена меняются ))) . Спасибо за ссылку на файл роботс, ранее не встречал так подробно (для вебассиста).