Проблема для seo в приложении блог Не принято

12

блог имеет несколько дублей для поисковых систем которые нужно закрывать от индексации

Disallow: /blog/blog/

Disallow: /blog/author/

Disallow: /blog/?list=wishlist

Disallow: /blog/?page=1

Disallow: /blog/2015/


в rss транслируется полная статья а не анонс, но как правило по rss идет кросспостинг в различные соцсети и новостные сайты и если статья быстрее индексируются в соцсетях или новостных сайтах, чем в блоге возникает проблема в seo.


Также по адресу Домен.ru/blog/ публикуется полная статья а не анонс

возникают дубли для поисковиков

Домен.ru/blog/ и Домен.ru/blog/статья/

14 комментариев

  • +2

    Прошу прощения, моя тема дизайна не содержит календаря и ссылку на автора блога, а в вашем случае - да, закрыть их в robots.txt

    Disallow: /blog/blog/

    Disallow: /blog/author*

    Disallow: /blog/?list=wishlist*

    Disallow: /blog/?page=*

    Disallow: /blog/2015/*

    Disallow: /blog/2016/*


    • +1
      Natman Natman 11 июня 2016 00:18 #

      спасибо,

      если так как вы пишете закрыть то будут ли видны статьи по ссылкам https://site.ru/blog/nazvanie-statji/

      и есть ли все же способ закрыть это в коде тэгами noindex?

      • +2

        статьи будут видны. Главное, не вводите совпадающие с robots.txt названия... Noindex работает только в яндексе, а я так понял, Вам нужны все поисковики...

        • +1
          Natman Natman 11 июня 2016 02:01 #

          да нужно везде

          сделал в robots посмотрим через некоторое время

          а как закрыть календарь и автора? ну то есть какая тема у вас?

        • +1
          Валера Валера 9 декабря 2016 07:47 #

          Disallow: /blog/author/

          Автора не стоит закрывать...это ошибка. Наоборот это 1 из факторов ранжирования. Поисковики отлично определяют "экспертов" в своей области и продвигают те ресурсы, в которых есть статьи "раскрученных авторов"....

        • +2
          Yaroslav Yaroslav 13 ноября 2018 23:37 #

          Как минимум уже давно бы пора было убрать дублирующую страницу /blog/?page=1

        • +1
          Natman Natman 10 июня 2016 02:24 #

          неужели нет решения?

          почему никто не реагирует на актуальную проблему,

          кто как решил поделитесь?

        • +1

          Сравнил со своим сайтом, таких проблем нет. Блог публикуется по адресу Домен.ру/recipes/ и все... Может быть у вас неверно настроена структура сайта?

          • +1
            Natman Natman 10 июня 2016 13:08 #

            вы уверены что у вас приложение Блог? и что код никто не правил?

            стандартно выводится так пример:

            https://site.ru/blog/

            https://site.ru/blog/2016/04/

            https://naturbio.ru/blog/author/1/

            https://site.ru/blog/nazvanie-statji/

            эти 4 ссылки ПС считают дублями, как минимум на них всех часть содержимого индексируется и в 100% заголовок

            все это приходится закрывать в robots.txt, но это не вариант ибо статей планируется много, и лучше бы все эти ссылки кроме последней с названием статьи (ключевой страницей) каким то образом закрыть от индексирования в коде,

            поэтому вопрос: помогите кто-нибудь кто сталкивался с этим или просто в каких файлах код поправить так чтобы лишние страницы не индексировались, может там в коде где-то noindex прописать?

          • +1
            Данил Денисов Данил Денисов 14 сентября 2016 21:02 #

            https://site.ru/blogs/author/1/1/2/4/и т.д./ можно до бесконечности дописывать/

            Как от этого избавиться?


          • +1
            vlad.shundalov vlad.shundalov 5 октября 2016 11:53 #

            А не поможет ли тут использование тэга "canonical"?
            т.е. для перечисленных ссылок все страницы копий статей, кроме оригинальной, той, что открывается по прямой ссылке, должны дополнительно иметь такой тег, указывающий на оригинальную статью.
            Подробнее - у Яндекса
            Насколько я представляю, должно работать для роботов и Яндекса и Google.
            Как вариант, все копии страницы блога можно просто закрыть полностью от индексации.

            <meta name=“robots” content=“noindex,nofollow”>
            Только надо учитывать, что если на такой странице есть динамический контент (динамическая перелинковка, баннеры и т.д.) - в индекс они не попадут. Страница выпадет "целиком".

            Добавить комментарий

            Чтобы добавить комментарий, зарегистрируйтесь или войдите