Вы о подписке на обновления плагинов? Идея интересная (для разработчиков плагинов), но имеет тоже свои минусы. И минусы эти, прежде всего, скажутся в далекой перспективе для самого ВА в большей степени. Для сторонних разработчиков - в меньшей. Крупные проекты пользуются самописными решениями. Готовыми решениями пользуются в основном мелкие и средние проекты, имеющие ограниченный бюджет. Будущие дополнительные расходы могут отпугнуть потенциальных клиентов. Т.е. желание накосить денег "здесь и сейчас" может наоборот пагубно сказаться на развитии, что приведет к обратному эффекту. В итоге можно остаться с ограниченной клиентской базой без ее наращивания. Мне кажется, что более перспективным на данном этапе должно быть привлечение новых клиентов за счет развития существующей системы. Ведь на сегоднящний день есть невероятное кол-во готовых решений, а потенциальных клиентов становится все больше с учетом развития онлайн-индустрии. Вобщем, необходим баланс, иначе можно только навредить развитию.
Справедливости ради стоит сказать, что у WA в целом, и у SS в частности минусов хватает. И кроме технических моментов, таких как: обновления, которые боишься устанавливать; урезание необходимого функционала (с грустью вспоминаю кучу полезностей в SS Pro, безжалостно выпиленных впоследствии в "усовершенствованной" системе) с параллельным добавлением спорного и бесполезного и т.п., присутствует явное нежелание коммуникации с потребителями продуктов и сторонними разработчиками (это я о годами висящих просьбах, мольбах, голосованиях и отсутствии желания вникнуть в их суть). Сюда же можно отнести и организационные недостатки в сотрудничестве с конечным потребителем, а именно полное отсутствие ответственности за поддержку работоспособности сторонних плагинов и приложений в случае пропажи их разработчика. Т.е. тупо выбрана тактика "вы нам деньги платите, но пользуйтесь на свой страх и риск, что завтра у вас все накроется медным тазом, т.к. все продается as is". Удобно, но не перспективно, т.к. подрывает доверие.
Но у кого нет недостатков? В каждой системе можно найти как кучу плюсов, так и кучу минусов.
У меня примерно так и сделано. Единственное отличие, что индексировать я запрещаю все страницы, кроме первой. Также запрещено индексировать страницы сортировки и пр. При таком раскладе гуглобот все эти страницы собирает в "Покрытие -> Исключено -> Индексирование страницы запрещено тегом noindex" и периодически их обходит в надежде увидеть что-то новое. ))) Но проблема в том, что в этой массе скапливается достаточно большое количество страниц с нереальными номерами (почему Гугл их придумывает - неведомо), которые робот также периодически обходит, получает пустую страницу каталога. Не индексирует ее, но все же сканирует вместо того, чтоб просканировать какую-то нужную страницу. Где-то здесь уже мелькали рассуждения о том, что на несуществующие страницы пагинации надо бы отдавать 404, но команда Вебасиста сказала, что страницы с гет-параметрами - это не полноценные страницы, поэтому менять никто ничего не будет. То, что для того же Гугла страницы "?page=", "?sku=", "?sort=" вполне полноценны, никого не интересует.
Спасибо. Сарказм, мне кажется, неуместен и не красит вас.
Везде, где это необходимо, у меня проставляется noindex. Зачем мне для этого покупать ваш или какой-либо другой плагин? Проблема в том, что (по моим наблюдениям) тот же Гугл собирает все страницы с noindex и периодически их все равно обходит. Да, он их не индексирует, страницы не влияют на какие-то показатели сайта, сео и т.п. Но на их обход тратится краулинговый бюджет. Таких страниц собираются тысячи и более. Со страницами 404 ситуация более предсказуемая - после пары обходов они выбрасываются и забываются. Повторюсь, что это мое мнение, основанное лишь на моих наблюдениях поведения поисковика. Возможно на самом деле все обстоит не совсем так, и я не прав.
Проблема в другом. С некоторых пор Гуглу глубоко по-барабану то, что указано в роботс. Он так и пишет "проиндексировано, несмотря на запрет в роботс..." Необходимо на таких страницах прописывать запрет на индексацию. К этому Гугл прислушивается.
С готовым чистым html вопросов нет. А вот со страницами, содержащими смарти, - беда. Пробовал через блоки - код выполняется. Но необходимо указать именно "src=", ссылку на блок сюда не вставишь. Мелькала в голове идея сделать это через страницы, но тогда добавляется геморрой с вырезанием всего лишнего контента.
Для ленивой подгрузки некоторого контента, который совершенно не нужен для моментального показа вместе с основным контентом. У меня уже используется плагин для lazyload изображений. Он также может и делать отложенную загрузку фреймов. Чтоб не городить для ленивой загрузки частей контента отдельные скрипты.
Не совсем это имелось ввиду. Вместо "list-thumbs-mini.html" можно пробовать любую страницу, пусть даже "mypage.html". Т.е. мне не надо ничего никуда передавать (все, что надо будет, я в этой странице укажу). Суть в том, что при попытке вывода любой страницы из шаблона, не выполняется код smarty, который в этой странице присутствует. Вываливается вся содержание страницы в текстовом виде.
К сожалению, полноценно это работает только если используется ленивая загрузка товаров в категории, а не постраничная пагинация. Не могу понять причину, но если открыть любую категорию и попытаться отсортировать ее, то ничего не изменится (визуально список товаров обновляется, но с прежней сортировкой). А изменится только если еще раз сабмитить форму. При включенной ленивой загрузке такого эффекта нет - сортировка происходит при первом сабмите. Проблема проявляется и в штатной фильтрации, и в плагине Smart Filters. Никак не могу понять причину и найти решение этой проблемы. Буду благодарен за подсказки.
В нем есть ошибка, которая не позволяет создавать отдельные страницы фильтров по какой-либо характеристике (комбинации характеристик) для разных категорий. Одна характеристика (комбинация) - одна страница, и все. Т.е., если, например, создали страницу с характеристикой, скажем, цвета "Белый" для категории "Трусы", то с этой характеристикой уже не создадите страницы для категорий "Носки", "Майки" и т.д. Это плагин считает дублями. Доводы техподдержке о том, что "Белые трусы" не могут быть дублем для "Белых носков" не принесли эффекта. Их ответ (орфография сохранена):
У нас устроена так, что характеристика не может использовать несколько раз. Так устроен плагин, изменений логики мы не планируем.
А на мое парирование, что при одиночном создании страниц фильтров плагин считает их дублями, а при массовом почему-то не считает и массово можно создать страницы с одинаковой характеристикой (комбинацией) для разных категорий, их ответ был:
При массовом создании так же нельзя создать страницы для одинаковых характеристик.
Т.е. их поддержка, фактически, утверждают, что плагин "СЕО-фильтры" вообще не должен создавать страницы фильтров. При этом они даже не знают как работает их плагин и что страницы он все же создает.
То же самое касается URL создаваемых страниц. URL вида /trusy/belye/, /noski/belye/, /maiki/belye/ и т.д. - тоже по их мнению одинаковые.
Пытаться что-то объяснить людям, с изначальным настроем "мы Боги" и "нам виднее" - дело хлопотное и неблагодарное.
Я не совсем о том спрашивал. НО! Вы правильно уловили что я хочу получить в итоге и направили меня абсолютно верно. Не обратил внимание, что в фильтрации присутствует
и складывал все отмеченные фильтры в список скриптом. А ведь все уже придумано ))) Пойду ковырять дальше...
P.S. Ваш Liqpay я немножко видоизменил и получил двухстадийную оплату. Правда, автоматизацию процесса (стадии списания) не делал и оставил все в полуручном режиме.
Как я написал чуть выше, мне удалось получить список ID примененных фильтров. Понимая, что из JS я их в smarty напрямую не передам, я их пишу в data некоего div. Теперь задача стоит как получившийся список преобразовать в массив smarty уже в шаблоне.
Перечень фильтров, пусть немножко извращенным способом, но я получил. Этот перечень у меня есть в подобном виде: "327,658,2171,14" и пишется из js в атрибут data. Примерно так:
<div data-testarray="327,658,2171,14"></div>
Теперь стоит другой вопрос: как этот список представить в виде массива в смарти? Что-то вроде:
Плагин смотрел и, скорее всего, куплю - с ним будет проще оперировать промокарточками. Но он не решает мою текущую задачу. Мне надо не фильтровать общий массив через if, а чтоб в массив попали только промокарточки с определенным значением параметра.
Нет. Возможно, на представленном примере это реализовано с помощью "СЕО-фильтров". А указанный мной плагин просто умеет характеристики выводить ссылками.
Вы о подписке на обновления плагинов? Идея интересная (для разработчиков плагинов), но имеет тоже свои минусы. И минусы эти, прежде всего, скажутся в далекой перспективе для самого ВА в большей степени. Для сторонних разработчиков - в меньшей. Крупные проекты пользуются самописными решениями. Готовыми решениями пользуются в основном мелкие и средние проекты, имеющие ограниченный бюджет. Будущие дополнительные расходы могут отпугнуть потенциальных клиентов. Т.е. желание накосить денег "здесь и сейчас" может наоборот пагубно сказаться на развитии, что приведет к обратному эффекту. В итоге можно остаться с ограниченной клиентской базой без ее наращивания. Мне кажется, что более перспективным на данном этапе должно быть привлечение новых клиентов за счет развития существующей системы. Ведь на сегоднящний день есть невероятное кол-во готовых решений, а потенциальных клиентов становится все больше с учетом развития онлайн-индустрии. Вобщем, необходим баланс, иначе можно только навредить развитию.
в ответ на Shop-Script уже не тот?
Справедливости ради стоит сказать, что у WA в целом, и у SS в частности минусов хватает. И кроме технических моментов, таких как: обновления, которые боишься устанавливать; урезание необходимого функционала (с грустью вспоминаю кучу полезностей в SS Pro, безжалостно выпиленных впоследствии в "усовершенствованной" системе) с параллельным добавлением спорного и бесполезного и т.п., присутствует явное нежелание коммуникации с потребителями продуктов и сторонними разработчиками (это я о годами висящих просьбах, мольбах, голосованиях и отсутствии желания вникнуть в их суть). Сюда же можно отнести и организационные недостатки в сотрудничестве с конечным потребителем, а именно полное отсутствие ответственности за поддержку работоспособности сторонних плагинов и приложений в случае пропажи их разработчика. Т.е. тупо выбрана тактика "вы нам деньги платите, но пользуйтесь на свой страх и риск, что завтра у вас все накроется медным тазом, т.к. все продается as is". Удобно, но не перспективно, т.к. подрывает доверие.
Но у кого нет недостатков? В каждой системе можно найти как кучу плюсов, так и кучу минусов.
в ответ на Shop-Script уже не тот?
Нет. Возможно временные проблемы с маршрутизацией.
в ответ на Блокировка сайта webasyst в Украине!
У меня примерно так и сделано. Единственное отличие, что индексировать я запрещаю все страницы, кроме первой. Также запрещено индексировать страницы сортировки и пр. При таком раскладе гуглобот все эти страницы собирает в "Покрытие -> Исключено -> Индексирование страницы запрещено тегом noindex" и периодически их обходит в надежде увидеть что-то новое. ))) Но проблема в том, что в этой массе скапливается достаточно большое количество страниц с нереальными номерами (почему Гугл их придумывает - неведомо), которые робот также периодически обходит, получает пустую страницу каталога. Не индексирует ее, но все же сканирует вместо того, чтоб просканировать какую-то нужную страницу.
Где-то здесь уже мелькали рассуждения о том, что на несуществующие страницы пагинации надо бы отдавать 404, но команда Вебасиста сказала, что страницы с гет-параметрами - это не полноценные страницы, поэтому менять никто ничего не будет. То, что для того же Гугла страницы "?page=", "?sku=", "?sort=" вполне полноценны, никого не интересует.
в ответ на Принудительно отдать 404
Спасибо. Сарказм, мне кажется, неуместен и не красит вас.
Везде, где это необходимо, у меня проставляется noindex. Зачем мне для этого покупать ваш или какой-либо другой плагин? Проблема в том, что (по моим наблюдениям) тот же Гугл собирает все страницы с noindex и периодически их все равно обходит. Да, он их не индексирует, страницы не влияют на какие-то показатели сайта, сео и т.п. Но на их обход тратится краулинговый бюджет. Таких страниц собираются тысячи и более. Со страницами 404 ситуация более предсказуемая - после пары обходов они выбрасываются и забываются. Повторюсь, что это мое мнение, основанное лишь на моих наблюдениях поведения поисковика. Возможно на самом деле все обстоит не совсем так, и я не прав.
в ответ на Принудительно отдать 404
А вы посмотрите на вид ссылок сортировки на странице, например, категории. Там же будет <a href=...>
Вот так Гугл и гуляет по отсортированным страницам.
в ответ на SQL
Вы просто не хотите никого слышать. "С некоторых пор" != "недавно".
Все эти страницы динамические и ссылки на них не хранятся нигде. Но они есть в индексе Гугла. Оттуда их со временем уберет сам Гугл.
в ответ на SQL
Проблема в другом. С некоторых пор Гуглу глубоко по-барабану то, что указано в роботс. Он так и пишет "проиндексировано, несмотря на запрет в роботс..." Необходимо на таких страницах прописывать запрет на индексацию. К этому Гугл прислушивается.
в ответ на SQL
С готовым чистым html вопросов нет. А вот со страницами, содержащими смарти, - беда. Пробовал через блоки - код выполняется. Но необходимо указать именно "src=", ссылку на блок сюда не вставишь. Мелькала в голове идея сделать это через страницы, но тогда добавляется геморрой с вырезанием всего лишнего контента.
в ответ на smarty в iframe. Как?
Для ленивой подгрузки некоторого контента, который совершенно не нужен для моментального показа вместе с основным контентом. У меня уже используется плагин для lazyload изображений. Он также может и делать отложенную загрузку фреймов. Чтоб не городить для ленивой загрузки частей контента отдельные скрипты.
в ответ на smarty в iframe. Как?
Спасибо за ответ.
Не совсем это имелось ввиду. Вместо "list-thumbs-mini.html" можно пробовать любую страницу, пусть даже "mypage.html". Т.е. мне не надо ничего никуда передавать (все, что надо будет, я в этой странице укажу). Суть в том, что при попытке вывода любой страницы из шаблона, не выполняется код smarty, который в этой странице присутствует. Вываливается вся содержание страницы в текстовом виде.
в ответ на smarty в iframe. Как?
Подниму тему.
К сожалению, полноценно это работает только если используется ленивая загрузка товаров в категории, а не постраничная пагинация. Не могу понять причину, но если открыть любую категорию и попытаться отсортировать ее, то ничего не изменится (визуально список товаров обновляется, но с прежней сортировкой). А изменится только если еще раз сабмитить форму.
При включенной ленивой загрузке такого эффекта нет - сортировка происходит при первом сабмите. Проблема проявляется и в штатной фильтрации, и в плагине Smart Filters. Никак не могу понять причину и найти решение этой проблемы. Буду благодарен за подсказки.
в ответ на Сортировка товаров через AJAX
Разве что доппараметрами.
в ответ на Сроки поставки в днях
Загляните сюда.
в ответ на Время в логах. Они фиксируются по гринвичу, как исправить.
Я тоже чайник, но, по всей видимости, так:
в ответ на Как запретить выгрузку определенных характеристик?
По аналогии с темой Дефолт:
или
в ответ на Как скрыть блок с видео на php?
В нем есть ошибка, которая не позволяет создавать отдельные страницы фильтров по какой-либо характеристике (комбинации характеристик) для разных категорий. Одна характеристика (комбинация) - одна страница, и все. Т.е., если, например, создали страницу с характеристикой, скажем, цвета "Белый" для категории "Трусы", то с этой характеристикой уже не создадите страницы для категорий "Носки", "Майки" и т.д. Это плагин считает дублями. Доводы техподдержке о том, что "Белые трусы" не могут быть дублем для "Белых носков" не принесли эффекта. Их ответ (орфография сохранена):
А на мое парирование, что при одиночном создании страниц фильтров плагин считает их дублями, а при массовом почему-то не считает и массово можно создать страницы с одинаковой характеристикой (комбинацией) для разных категорий, их ответ был:
Т.е. их поддержка, фактически, утверждают, что плагин "СЕО-фильтры" вообще не должен создавать страницы фильтров. При этом они даже не знают как работает их плагин и что страницы он все же создает.
То же самое касается URL создаваемых страниц. URL вида /trusy/belye/, /noski/belye/, /maiki/belye/ и т.д. - тоже по их мнению одинаковые.
Пытаться что-то объяснить людям, с изначальным настроем "мы Боги" и "нам виднее" - дело хлопотное и неблагодарное.
в ответ на Плагин создания страниц фильтрации товаров
Евгений, спасибо Вам огромное!
Я не совсем о том спрашивал. НО! Вы правильно уловили что я хочу получить в итоге и направили меня абсолютно верно. Не обратил внимание, что в фильтрации присутствует
и складывал все отмеченные фильтры в список скриптом. А ведь все уже придумано ))) Пойду ковырять дальше...
P.S. Ваш Liqpay я немножко видоизменил и получил двухстадийную оплату. Правда, автоматизацию процесса (стадии списания) не делал и оставил все в полуручном режиме.
P.P.S. По поводу Укрпочты мой запрос в силе. )))
в ответ на Получить значения примененных фильтров
Спасибо, Евгений.
Как я написал чуть выше, мне удалось получить список ID примененных фильтров. Понимая, что из JS я их в smarty напрямую не передам, я их пишу в data некоего div. Теперь задача стоит как получившийся список преобразовать в массив smarty уже в шаблоне.
в ответ на Получить значения примененных фильтров
Перечень фильтров, пусть немножко извращенным способом, но я получил. Этот перечень у меня есть в подобном виде: "327,658,2171,14" и пишется из js в атрибут data. Примерно так:
Теперь стоит другой вопрос: как этот список представить в виде массива в смарти? Что-то вроде:
в ответ на Получить значения примененных фильтров
Решает, если правильно прописать условия.
в ответ на Разные скидки на каждый товар в бекэнде
Так добавьте эти параметры в указанный вами код также, как, например, alt. Внимательнее все прописывайте, чтоб ошибки не вылетали.
в ответ на CLS
200 чего? Единицы измерения забыли. По всей видимости имелось ввиду 200px
И точку вначале забыли.
в ответ на CLS
Пропишите в стилях свойства для
в ответ на CLS
Понял, спасибо. Пойду немножко другим путем.
в ответ на Как отфильтровать промокарточки?
Спасибо за ответ, Игорь.
Плагин смотрел и, скорее всего, куплю - с ним будет проще оперировать промокарточками. Но он не решает мою текущую задачу. Мне надо не фильтровать общий массив через if, а чтоб в массив попали только промокарточки с определенным значением параметра.
в ответ на Как отфильтровать промокарточки?
А почему не попросить документ (паспорт, права)?
в ответ на А как вы выдаете оплаченные заказы?
Нет. Возможно, на представленном примере это реализовано с помощью "СЕО-фильтров". А указанный мной плагин просто умеет характеристики выводить ссылками.
в ответ на Бренды и фильтры ссылками на странице товара
Ищите плагин "Характеристики в списках товаров".
в ответ на Бренды и фильтры ссылками на странице товара
{if ($action != 'product') || ($action != 'order')}
в ответ на Так не работает.