Странице в поиске Есть решение

Добрый день!

Подскажите пожалуйста, у меня яндекс почему то показывает, что страниц в поиске, всего одна.

Нашел инфу, что за это отвечает robot.txt.

Посмотрел файл - вроде рабочий (если правильно инструкцию понял):

User-agent: *

Disallow:

Crawl-delay: 5

А в результате, в описании своего сайта я вижу:

Владелец сайта предпочёл скрыть описание страницы.

13 ответов

  • 1
    Эрик Webasyst 7 февраля 2016 08:52 # Решение

    Воспользуйтесь инструкцией Рекомендации по составлению файла robots.txt для Shop-Script

    В вашем случае директива

    Disallow:

    как раз запрещает индексацию всех страниц сайта.

  • 1
    Эрик Webasyst 8 февраля 2016 11:27 #

    Да, правильно.

  • 1
    Pereiro 8 февраля 2016 11:50 #

    Роман у Вас сайт на несколько страниц? не магазин? Иначе всё разрешать не правильно, будут дубли страниц.

  • 2
    Pereiro 8 февраля 2016 12:39 # Решение

    если магазин, то по делайте рекомендации, как по ссылке выше вам давали. Там самое простое и нужное все написано, у вас сейчас закрыта только страница для входа в бекенд Webasyst. А вообще курите инет, https://yandex.ru/support/webmaster/controlling-ro... смотрите в гугл аналитике какие есть дубли страниц и закрываете их, Примерно так:

    User-agent: Yandex

    Disallow: /search/?query=

    Disallow: /compare/

    Disallow: /tag/

    Disallow: *&sort=

    Disallow: */?sort=

    Disallow: /checkout/

    Disallow: /my/

    Disallow: /signup/

    Disallow: /login/

    Disallow: /forgotpassword/

    Disallow: /webasyst/

    Disallow: /*/reviews/

    Host: www.moe-foto.net


    User-agent: *

    Disallow: /search/?query=

    Disallow: /compare/

    Disallow: /tag/

    Disallow: *&sort=

    Disallow: */?sort=

    Disallow: /checkout/

    Disallow: /my/

    Disallow: /signup/

    Disallow: /login/

    Disallow: /forgotpassword/

    Disallow: /webasyst/

    Disallow: /*/reviews/

    Sitemap: http://www.moe-foto.net/sitemap.xml

  • 1
    Pereiro 8 февраля 2016 12:43 #

    Host: www.moe-foto.net пишите, если www.ваш сайт - главное зеркало, в общем читайте помощь яши, там всё написано))

  • 1
    Роман 9 февраля 2016 01:25 #

    я просто в этом не разбираюсь совсем.

    это мой первый интернет магазин. поэтому не судите строго. я не знаю что такое дубли, зеркала и прочее. начинаю читать - становится страшно от того, что слишком все сложно. у меня есть такое мнение, что этот robot.txt должен автоматически формироваться

  • 1
    Роман 9 февраля 2016 01:36 #

    я вообще имел глупость, сделать автоматический генератор этого файла с сайта http://pr-cy.ru/robots/

  • 1
    Pereiro 9 февраля 2016 02:20 #

    Роман)), я вам выложил готовый роботекст, по рекомендациям WA. У себя в роботексте уберите разрывы между строк, на форуме так автоматом вставляется, у себя уберите..

    И, рекомендуют для Яши задавать правила отдельно, как я вам выше выложил, получается две копии директив под разной шапкой.

    User-agent: Yandex

    ......

    .....

    User-agent: *

    ....

    .....

    В самом конце ссылку на сайтмап

  • 1
    Роман 9 февраля 2016 03:48 #

    сайтмапа нету


  • 1
    Роман 9 февраля 2016 05:01 #

    убрал разрывы, а вот что то не пойму, сайтмап только вручную делается что ли?

  • 1
    Pereiro 9 февраля 2016 05:11 # Решение

    https://www.shop-script.ru/help/1101/shop-script-5...

    одержимое файла <code class="path" style="font-size: 16.5px;">sitemap.xml</code> всегда доступно по адресу вида<code style="font-size: 16.5px;">http://yourdomain.ru/sitemap.xml</code>, хотя файл с таким именем на сервере отсутствует. Создавать такой файл вручную не нужно, чтобы не мешать автоматическому формированию Sitemap-файла.

    Содержимое sitemap.xml всегда формируется автоматически — нигде в интерфейсе Shop-Script и Webasyst не нужно нажимать специальную кнопку, чтобы «обновить» этот файл.

Добавить ответ

Чтобы добавить комментарий, зарегистрируйтесь или войдите