файл robots.txt
Подскажите пожалуйста по robots.txt
В индексе очень много не нужных страниц.
Как запретить к индексации дубли типа
/brand/ttt/?cID=649&page=4
/brand/ttt/?linii_soo[]=112&linii_soo[]=114&linii_soo[]=117
/brand/ttt/?cID=652
/brand/ttt/?page=2&cID=235
Проблема именно с плагином брендов с картинками. И подобных дублей просто тьма.
Подскажите как от них избавиться?
С уважением.
2 ответа
Disallow: /*linii_soo[]=
Спасибо!!!