Пустые скобки при подборе товара в фильтре []
Здравствуйте! Пустые скобки при подборе товара в фильтре [] как это можно исправить?
пример ссылки /category/split-sistemy/?color[]=10&brend[]=65&ploshchad_m_[]=82&proizvoditelnost_okhlazhdenie_kvt[unit]=KW&pr
2 ответа
Эти "пустые скобки" означают, что значения собираются в массив. Т.е. если в урле будет вот так &brend[]=65&brend[]=66 то будет фильтрация по двум брендам.
В какой-то степени спасти от таких урлов может помочь плагин Сеофильры, но там придется попотеть настраивая все этоблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблаблабла
Коллега, выражайтесь без идиоматических выражений, не ломайте форум =)
Сорян, за блаблабла, но реально уже утомляет этот баг, который возникает вообще непонятно как и когда!
Изначально было вот так
Да, вот этот пример совсем как-то непонятен... Жаль что исходник удален =)
кто-то может объяснить зачем вообще трогать URL-ы страниц сортировок или фильтраций? чем вам мешают скобки?
их нельзя заюзать в clean-param для roots.txt.
а так хотелось бы :)
Это безусловно минус, что скобка не лезет в clean-param, но, если выбирать между Clean-param и Disallow, то предпочту делать скобочным URL такого вида [ ] именно Disallow. Страницы эти по факту мусорные, если использовать только стандартный функционал и не применять плагины, делающие из-них что-то нормальное.
По большому счету, проще для страниц фильтрации и сортировок проставлять meta robots noindex и передавать в качестве canonical первую страницу категории. Собственно canonical движок для таких страниц уже сам проставляет (вроде бы даже правильно) и нужно только добавить meta по необходимости.
canonical для гугла еще норм работает. а яндексу в большинстве случаев на него плевать )
meta robots noindex одновременно с canonical лучше не использовать для гугла.
в идеале конечно - вообще подгружать контент с параметрами или сортировкой через AJAX без изменения УРЛа.
но это уже надо править шаблон.
Да эти поисковые алгоритмы в край уже офигели. То так, то сяк, то ещё как-нибудь :))) Скоро и на robots.txt забьют и дело в шляпе. Не, ну а чё вы хотели, как говорится. :)
Зашел почитать. У меня горит.
> meta robots noindex одновременно с canonical лучше не использовать для гугла.
- кто вам такое сказал?
> в идеале конечно - вообще подгружать контент с параметрами или сортировкой через AJAX без изменения УРЛа.
- это бред.
> По большому счету, проще для страниц фильтрации и сортировок проставлять meta robots noindex и передавать в качестве canonical первую страницу категории.
- Проще - да. Но через robots.txt тоже нужно закрывать, чтобы экономить краулинговый бюджет.
> Собственно canonical движок для таких страниц уже сам проставляет (вроде бы даже правильно)
- движок проставляет канониклы криво.
> Это безусловно минус, что скобка не лезет в clean-param, но, если выбирать между Clean-param и Disallow, то предпочту делать скобочным URL такого вида [ ] именно Disallow.
- нафиг надо закрывать в robots.txt через скобки, когда можно разом закрыть все страницы с параметрами через disallow: *? (не забыв открыть для страниц пагинаций).
--------
Статья в моем блоге - Правильная настройка индексации для интернет-магазинов на Shop Script
Опасное широкое правило disallow: *? массового действия в сочетании с другими более точечными много заглушит, если хоть чуточку неправильно его применять. Очень широкие правила всегда опасны. Они как слон в посудной лавке. Лучше, на мой взгляд, несколько более тонких поставить. Впрочем это дело вкуса и смотря как там всё организовано в остальных строках и вообще на проекте. Кто-то в роботс такие вещи пихает (чуть ли не пароль от админки), что ужас просто.
У меня системный каноникал включается только тогда, когда в категории срабатывает сортировка или фильтрация. В остальных случаях каноникал "весь мой".
При активации сортировок Гугл получает meta noindex и каноникал первой страницы категории, а Яндекс эти ситуации по clean-param отрабатывает, ему можно.
При активации фильтров всем болт сразу же в виде noindex для страховки, а некоторым вообще закрыто в robots.txt. Да и фильтров у меня мало в силу специфики товара, что упрощает дело.
По отзывам каноникал отсылает в товар и проставляется meta noindex для всех, если кол-во отзывов менее чем N (настраивается в теме дизайна). Если отзывов более N, то каноникалом будет сама страница отзывов и мета не ставится.
Пагинация тоже не просто так живет и товарные страницы не обойдены вниманием, но там все предельно просто.
Достаточно долго вытачивал наборы условий для управления каноникалом, пагинацией и для контроля индексирования. Управление H1, title, description на пагинации тоже есть.
Индекс чист, как слеза младенца. :)))
P.S. По большому счету в один клик могу у себя вообще отключить системный каноникал (тот что движок добавляет) и перейти на полностью свой, но пока даю движку немного воздуха и позволяю только в двух случаях дышать в категориях. В остальных местах он убит как класс ибо доверия нет после ряда залётов от WA.