#robots.txt

  • Есть решение

    Здравствуйте!На сайт необходимо залить robots и sitemap, но для этого нужен доступ к приложению «Сайт» (у меня только «Магазин»).Подскажите, есть ли другие способы это сделать?

    robots - для редактирования необходим доступ к приложению "сайт". ни как иначе (ну... можно по фтп залить, но это неправильно)Sitemap - генерируется автоматически. заливать его ни куда не надо.
    Павел Гордовой Павел Гордовой
  • Доброго всем дня.Недавно привел в порядок файл robots.txt и после обнаружил в админ панели merchant center и после обнаружил что большинство товарных предложений было отключено по причине блокировки доступа в robots.txtпо мнению гугла, файл robots.txt...

  • Гугл сообщает о дублях:/category/blackview/?sort=price&order=asc/category/blackview/?sort=stock&order=desc/category/blackview/?sort=total_sales&order=descХочу закрыть сортировку в роботс.тхт. Правильно будет:Disallow: /?sort= Disallow: */?sort=* или...

  • Есть решение

    Google webmasters ругается на : Повторяющиеся заголовки (теги title) и что Отсутствует: name на страницах с отзывамирешили их убрать из индексав роботс прописали следующее. прошло 2 недели, ничего не изменилось. гугл также ругается. Может кто...

    Правила Disallow: /my/ Disallow: /checkout/ Disallow: /*/reviews/Уже запрещают индексирование того, что запрещают Disallow: /index.php/index.php/my/ Disallow: /index.php/index.php/checkout/ Disallow: /index.php/index.php/*/reviews/в последних нет необходимости.То, что Вы прописали в роботс, говорит Гуглу не индексировать, но не обязывает его убрать уже проиндексированное (по крайней мере быстро). Можно воспользоваться сервисом удаления УРЛ из индекса, если раздражают сообщения.З.Ы. А что у вас на...
    Алексей | shop-script.org Алексей | shop-script.org
  • Для того чтобы ваш онлайн-магазин появился в результатах поиска в поисковых системах, страницы сайта должны проиндексироваться поисковыми роботами. Чтобы это произошло как можно скорее, лучше «сообщить» им о существовании вашего нового магазина:...

  • Есть решение

    Shop-Script 7. Хостер: TimeWeb. Нужно 301 перенаправление на https всего, кроме robots.txt, который должен быть доступен и по http, и по https.Добавление в .htaccess следующих параметров:RewriteEngine On RewriteBase / RewriteCond %{HTTP:X-HTTPS} !1...

    РАБОЧИЙ ВАРИАНТ для ТАЙМВЭБА (для других хостеров параметры .htaccess могут немного отличаться):1) Содержимое .htaccess:<FilesMatch "\.md5$"> Deny from all </FilesMatch> DirectoryIndex index.php Options -Indexes Options -MultiViews Options +FollowSymLinks AddDefaultCharset utf-8 RewriteEngine On RewriteBase / RewriteCond %{HTTP:X-HTTPS} !1 RewriteCond %{REQUEST_URI} !robots.txt RewriteRule ^(.*)$ https://SiteName.ru/$1 [R=301,L] <ifModule mod_rewrite.c>...
    Алексей Жученко Red Cat
  • Собственно вопрос: как и надо ли \ зачем создать robots.txt ?

  • Есть решение

    Добрый день!Подскажите пожалуйста, у меня яндекс почему то показывает, что страниц в поиске, всего одна.Нашел инфу, что за это отвечает robot.txt.Посмотрел файл - вроде рабочий (если правильно инструкцию понял):User-agent: *Disallow: Crawl-delay: 5А в...

    если магазин, то по делайте рекомендации, как по ссылке выше вам давали. Там самое простое и нужное все написано, у вас сейчас закрыта только страница для входа в бекенд Webasyst. А вообще курите инет, https://yandex.ru/support/webmaster/controlling-ro... смотрите в гугл аналитике какие есть дубли страниц и закрываете их, Примерно так:User-agent: YandexDisallow: /search/?query=Disallow: /compare/Disallow: /tag/Disallow: *&sort=Disallow: */?sort=Disallow: /checkout/Disallow: /my/Disallow:...
    Владимир Уткин Pereiro
  • Есть решение

    Подскажите где можно посмотреть правильный и оптимальный пример файла robots.txt. Искал в интернете, но есть только на старый webasyst. На новый не нашёл (((

    Рекомендации в статье https://www.shop-script.ru/help/149/shop-script-5-...
    Алексей Владимирович Курдюков Алексей
  • Есть решение

    Люди добрые помогите!Правильно ли составлен robots.txt? Мне кажется, что я что-то неправильно сделала. Страницы не индексируются....User-agent: *# wa shop *Disallow: /my/Disallow: /checkout/Disallow: /login/Disallow: /search/?query=Disallow:...

    Воспользуйтесь анализатором Яндекса: https://webmaster.yandex.ru/robots.xml , там можно проверить, будут ли индексироваться конкретные адреса. Но у вас все верно, проблем быть не должно.
    Максим Креминский Максим
  • +13 Не принято

    блог имеет несколько дублей для поисковых систем которые нужно закрывать от индексацииDisallow: /blog/blog/Disallow: /blog/author/Disallow: /blog/?list=wishlistDisallow: /blog/?page=1Disallow: /blog/2015/в rss транслируется полная статья а не анонс, но...