Denis Reva-Sapega −19


Denis Reva-Sapega

  • Denis Reva-Sapega Denis Reva-Sapega 7 августа 2021 17:32 #


    /

    ясно

    подскажите какой метод использовать чтобы проверить наличие в url директории /compare/ ?


    в ответ на Noindex для страниц сравнения

  • Denis Reva-Sapega Denis Reva-Sapega 29 июля 2021 13:16 #
    Поменяйте движок, не насилуйте себя. Или сударь мазохист? ))

    почему вы еще до сих пор не в штате Вебасиста? вы бы прекрасно дополнили их зондеркоманду

    в ответ на SQL

  • Denis Reva-Sapega Denis Reva-Sapega 29 июля 2021 10:40 #

    плагин для проставки noindex уже поставил конечно, но там тоже есть нюансы

    ...

    Это самая настоящая подстава ... если знать механизм индексирования Гуглом страниц которые закрыты от сканирования, вам это любой ман с компетенцией сеошника подтвердит. Ссылки может должны быть, но нужно сразу им прописывать noindex, на уровне движка, без всяких плагинов, потому что весь этот мусор летит в индекс, а между графиком мусорных страниц в индексе и количества посещений - самая прямая корреляция. 

    А как они всех подставили с артикульными страницами? ... вы видели сколько там 301 редиректов? Кроме того что весь этот мусор ушел в индекс и пошла жесткая просадка по посещениям, а соответственно и по продажам.

    Этим чудакам просто плевать на сео, плюс у них руки из жопы в принципе, мы все это прекрасно видим ... те кто на опыте уже шарахаются от их обновлений движка как от чумы - они выпускают одно обновление ради какой-то мелочи, а потом выпускают два других обновления чтобы исправить косяки в первом обновлении.

    в ответ на SQL

  • Denis Reva-Sapega Denis Reva-Sapega 29 июля 2021 01:20 #

    эээ ....

    может и вопрос терминологии


    ну вот эта часть url статична (страница категории)..она есть и в sitemap, и в БД (таблица shop_category)

    domain.com/category/zapchasti/

    на эту страницу заходит пользователь, он сортирует товар в категории и создаётся новая страница, в URL которой добавляется GET-параметр

    domain.com/category/zapchasti/?sort=total_sales&order=desc

    и что здесь происходит, мне непонятно ... как на страницу, которой нет в БД, но по которой сервер отдает 200, может вести внутренняя ссылка ... и где Googlebot берет информацию что на эту страницу есть ссылка, а значит ее нужно проиндексировать несмотря на запрет сканирования в robots.txt, ведь у гугла именно такой механизм индексирования страниц, которые закрыты от сканирования 

    в ответ на SQL

  • Denis Reva-Sapega Denis Reva-Sapega 29 июля 2021 00:09 #

    эээ ... серьезно, я понял что вы хотели помочь )), но щас такую чушь пишите

    как по вашему на запрос страницы типа .../compare/1518,475,470,474/ может отдаваться 200 ответ сервером, если она, цитирую:

    не хранится нигде. Но она есть в индексе Гугла.

    ???

    в ответ на SQL

  • Denis Reva-Sapega Denis Reva-Sapega 28 июля 2021 23:22 #

    Проблема в другом. С некоторых пор Гуглу глубоко по-барабану то, что указано в роботс. Он так и пишет "проиндексировано, несмотря на запрет в роботс..." Необходимо на таких страницах прописывать запрет на индексацию. К этому Гугл прислушивается.

    1. Нет, это не с некоторых пор, это уже достаточно давно.

    2. Повторюсь, страницы попадают в индекс вопреки запрета на сканирование, потому что на них есть ссылка, а ссылку на страницы сравнения товаров и страницы с использованными фильтрами/сортировками товаров за каким-то хреном вставляет движок сайта. Это подстава со стороны Webasysta. Такая же подстава как сейчас с артикульными страницами. Людям из Webasysta пофиг на SEO. И они подставляют своих клиентов, и даже не парятся по этому поводу.

    3. Я сделал чтобы на таких страницах указывался мета-тег noindex, но теперь нужно пересканировать 2000 страниц, чтобы робот увидел этот тег на всех из них. Это может занять несколько месяцев. Поэтому я и хочу найти где хранятся эти страницы и тупо удалить их. Потому что есть два варианта - либо робот увидит noindeх, и удалит их из индекса, либо по ним будет 404 ответ сервера. Два варианта возможны, второй будет быстрее.

    в ответ на SQL

  • Denis Reva-Sapega Denis Reva-Sapega 28 июля 2021 22:46 #

    суть в том что у меня были прописаны директивы на запрет сканирования мусорных страниц в robots.txt, например

    Disallow: *compare/
    Disallow: *?

    но, толи из-за косяка в теме дизайна, то ли движка, такие мусорные страницы все равно были проиндексированы, потому что при сравнении товаров, или сортировке или фильтрации товаров в категории, на такие страницы ...

    domain.com/category/zapchasti/?sort=total_sales&order=desc
    domain.com/compare/1257,1265,1264,1263,1256/

    ... на них формировалась как минимум одна внутренняя ссылка. А Гугл, если на запрещенную к сканированию страницу есть ссылка, запрет на сканирование отчасти игнорирует. То есть такая страница не сканируется, но индексируется. И вот у меня попало в индекс 2К такого мусора. 

    Если по такой мусорной странице перейти, то сервер отдает 200 ответ. Обычная такая живая страница. Хоть эти страница и были собраны динамически, они они где-то в итоге хранятся, очевидно в какой-то таблице. Вот и вопрос в какой? 

    в ответ на SQL

  • Denis Reva-Sapega Denis Reva-Sapega 8 июня 2020 18:02 #

    У меня тоже эта тема дизайна https://mastershop.skilbe.ru/. Та же самая фигня со скоростью. У демо-версии шаблона скорость на мобильной версии - 57, у моего сайт - 27. Так это у вас еще видно что тема дизайна кастомизировалась, у меня вообще считай оригинал. И я бы не сказал что даже демо версия быстро грузится - посмотрите как там карусель прогружается (баннер), он хрен знает сколько грузится. 

    Я буквально вчера разработчику писал чтобы он обратил внимание на этот момент, потому что после майского обновления поискового движка May Google Core 2020, начали закручивать гайки по скорости загрузки сайта и я уже на себе это прочувствовал - трафик просел на 30-40%.

    Я делал анализ, эта тема плохо адаптирована для новых требований гугла. Там вообще куча косяков технических, включая использование старых jQuery библиотек с благами, кривую компиляцию JS скриптов и прочее прочее.

    Вам кстати тему сам разработчик кастомизировал и как вы ставите обновления?

    в ответ на Проблема со скоростью сайта при обновлении до SS8

  • Denis Reva-Sapega Denis Reva-Sapega 20 апреля 2020 23:37 #

    Разработчикам некогда, они баги делают

    в ответ на Лента событий, кликабельные ссылки

  • Denis Reva-Sapega Denis Reva-Sapega 5 сентября 2019 17:17 #

    Ладно. В <p> заворачивает если в html редакторе нет собственно html тегов. В моем случае есть хук, вида {$wa->block("some.hook")} который интерпретируется как "обычный текст" и заворачивается в <p>. Но в самом блоке у меня же есть html, к примеру ...

    <dl>
     <dt></td>
       <dd></dd>
       <dd></dd>
    </dl>

    ... и вот он уже посредством оборачивания хука заворачивается в <p>, соответственно создается системный отступ, мне потом вручную это править

      

    в ответ на Вкладку заворачивает в <p>

  • Denis Reva-Sapega Denis Reva-Sapega 2 сентября 2019 21:52 #

    Memcached с настройками из коробки тот еще инструмент. Поставил себе недавно на проект, время ответа сервера только увеличилось и просели другие метрики связанные со скоростью загрузки страницы. Подключение к серверу тоже требует время.

    в ответ на Ошибка 500 при попытке настроить Memcached