#robots.txt
-
Залить robots и sitemap Есть решение
Здравствуйте!На сайт необходимо залить robots и sitemap, но для этого нужен доступ к приложению «Сайт» (у меня только «Магазин»).Подскажите, есть ли другие способы это сделать?
robots - для редактирования необходим доступ к приложению "сайт". ни как иначе (ну... можно по фтп залить, но это неправильно)Sitemap - генерируется автоматически. заливать его ни куда не надо.Павел Гордовой
-
google merchant center проблема с robots.txt
Доброго всем дня.Недавно привел в порядок файл robots.txt и после обнаружил в админ панели merchant center и после обнаружил что большинство товарных предложений было отключено по причине блокировки доступа в robots.txtпо мнению гугла, файл robots.txt...
-
robots.txt как закрыть "?sort="
Гугл сообщает о дублях:/category/blackview/?sort=price&order=asc/category/blackview/?sort=stock&order=desc/category/blackview/?sort=total_sales&order=descХочу закрыть сортировку в роботс.тхт. Правильно будет:Disallow: /?sort= Disallow: */?sort=* или...
-
robots.txt правильно ли прописан ? Есть решение
Google webmasters ругается на : Повторяющиеся заголовки (теги title) и что Отсутствует: name на страницах с отзывамирешили их убрать из индексав роботс прописали следующее. прошло 2 недели, ничего не изменилось. гугл также ругается. Может кто...
Правила Disallow: /my/ Disallow: /checkout/ Disallow: /*/reviews/Уже запрещают индексирование того, что запрещают Disallow: /index.php/index.php/my/ Disallow: /index.php/index.php/checkout/ Disallow: /index.php/index.php/*/reviews/в последних нет необходимости.То, что Вы прописали в роботс, говорит Гуглу не индексировать, но не обязывает его убрать уже проиндексированное (по крайней мере быстро). Можно воспользоваться сервисом удаления УРЛ из индекса, если раздражают сообщения.З.Ы. А что у вас на...Алексей | shop-script.org
-
Основы SEO для интернет-магазинов
Для того чтобы ваш онлайн-магазин появился в результатах поиска в поисковых системах, страницы сайта должны проиндексироваться поисковыми роботами. Чтобы это произошло как можно скорее, лучше «сообщить» им о существовании вашего нового магазина:...
-
301 редирект на https: всё кроме robots.txt Есть решение
Shop-Script 7. Хостер: TimeWeb. Нужно 301 перенаправление на https всего, кроме robots.txt, который должен быть доступен и по http, и по https.Добавление в .htaccess следующих параметров:RewriteEngine On RewriteBase / RewriteCond %{HTTP:X-HTTPS} !1...
РАБОЧИЙ ВАРИАНТ для ТАЙМВЭБА (для других хостеров параметры .htaccess могут немного отличаться):1) Содержимое .htaccess:<FilesMatch "\.md5$"> Deny from all </FilesMatch> DirectoryIndex index.php Options -Indexes Options -MultiViews Options +FollowSymLinks AddDefaultCharset utf-8 RewriteEngine On RewriteBase / RewriteCond %{HTTP:X-HTTPS} !1 RewriteCond %{REQUEST_URI} !robots.txt RewriteRule ^(.*)$ https://SiteName.ru/$1 [R=301,L] <ifModule mod_rewrite.c>...Red Cat
-
Как и надо ли создать robots.txt ?
Собственно вопрос: как и надо ли \ зачем создать robots.txt ?
-
Странице в поиске Есть решение
Добрый день!Подскажите пожалуйста, у меня яндекс почему то показывает, что страниц в поиске, всего одна.Нашел инфу, что за это отвечает robot.txt.Посмотрел файл - вроде рабочий (если правильно инструкцию понял):User-agent: *Disallow: Crawl-delay: 5А в...
если магазин, то по делайте рекомендации, как по ссылке выше вам давали. Там самое простое и нужное все написано, у вас сейчас закрыта только страница для входа в бекенд Webasyst. А вообще курите инет, https://yandex.ru/support/webmaster/controlling-ro... смотрите в гугл аналитике какие есть дубли страниц и закрываете их, Примерно так:User-agent: YandexDisallow: /search/?query=Disallow: /compare/Disallow: /tag/Disallow: *&sort=Disallow: */?sort=Disallow: /checkout/Disallow: /my/Disallow:...Pereiro
-
Правильный robots.txt для Webasyst 6 Есть решение
Подскажите где можно посмотреть правильный и оптимальный пример файла robots.txt. Искал в интернете, но есть только на старый webasyst. На новый не нашёл (((
Рекомендации в статье https://www.shop-script.ru/help/149/shop-script-5-...Алексей
-
Помогите в robots.txt. Пожалуйста! Есть решение
Люди добрые помогите!Правильно ли составлен robots.txt? Мне кажется, что я что-то неправильно сделала. Страницы не индексируются....User-agent: *# wa shop *Disallow: /my/Disallow: /checkout/Disallow: /login/Disallow: /search/?query=Disallow:...
Воспользуйтесь анализатором Яндекса: https://webmaster.yandex.ru/robots.xml , там можно проверить, будут ли индексироваться конкретные адреса. Но у вас все верно, проблем быть не должно.Максим
-
+13 Проблема для seo в приложении блог Не принято
блог имеет несколько дублей для поисковых систем которые нужно закрывать от индексацииDisallow: /blog/blog/Disallow: /blog/author/Disallow: /blog/?list=wishlistDisallow: /blog/?page=1Disallow: /blog/2015/в rss транслируется полная статья а не анонс, но...