Доброго времени суток! Очень благодарна Анне за проделанную работу в сжатые сроки. Сразу видно работа выполнена качественно и ,конечно же, профессиональна. Уверена, что именно этот специалист знает своё дело и вкладывает в это душу. Также вошли в моё положение, так как бюджет был ограничен.Буду обращаться повторно!ещё
Обратился за помощью к ним для улучшения конверсии от сайта, как то он совсем заглох. Понимание нашли с ними сразу, по всем предложенным работам, перевели сайт на новую CMS мне с полной оптимизацией страниц, с контентом поработали, в общем много чего сделали, за два месяца сайт было не узнать, плюс они мне очень с рекламой помогли, теперь я на метрике вижу реальные результаты их работы по трафику.ещё
Хочу выразить благодарность SEO-специалисту. Он проделал огромную работу, которая помогла улучшить позиции сайта в поисковых системах. Это положительно сказалось на количестве заказов и прибыли. Я хочу поблагодарить за профессионализм, качественную работу и индивидуальный подход.ещё
Опыт сотрудничества только положительный. Работала с Никитой по продвижению сайта. Грамотный, опытный, специалист, внимателен ко всем деталям. Подход к работе профессиональный и ответственный. Чётко выполнил поставленную задачу. Сроки были соблюдены. Проконсультировал подробно по всем интересующим вопросам. Все консультации были полезными. Результат работы не заставил себя ждать, сайт находится в топ 10 поисковика и все запросы на высоких позициях. Продолжаем работать и добавляем запросы. Спасибо за качественную работу и рекомендую как ответственного исполнителя.ещё
Георгий классный специалист по вайлдбериз. Как и просила, сделал мне SEO оптимизацию и настроил внутреннюю рекламу. На следующей день после включения рекламы появилось больше заказов. Очень рада. Рекомендую!ещё
Хочу сказать только одно!! Мне очень повезло, что Игорь откликнулся на мое задание. У него не было ни фото, ни отзывов….но после общения я однозначно приняла решение)))
1. Специалист 100%
2. Ответственность 100%
3. Коммуникабельность 100%
4. Адекватные цены за услуги 100%
5. Всегда на связи 100%
После сделанного им задания наша работа будет продолжаться )ещё
спасибо большое Александру, по курсу seo спас меня
Более месяца назад · Смоленск
Задачи, которые доверили Профи
Дистанционно
· 11 мая 2023
Настройка robots.txt
Детали заказа
Интернет-магазин.
Платформа сайта: Webasyst.
Необходимо настроить файл robots.txtещё
Стоимость
800 ₽
Дистанционно
· 22 мая 2023
Настройка robots.txt
Детали заказа
Интернет-магазин.
Платформа сайта: Bitrix.
1) Есть Критичная ошибка в Вебмастере:
Следуем указаниям, вносили исправления, ошибка сохраняется.
Некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров). Например, https://example.com/tovary?from=mainpage дублирует https://example.com/tovary. Из-за их обхода информация о важных для вас страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайта в поиске.
Вот примеры страниц и дублирующих их страниц с незначащими GET-параметрами:
set_filter:
https://laredy.ru/brands/AMILL/?SECTION_ID=2558
https://laredy.ru/brands/AMILL/?SECTIO...t_filter=y
set_filter:
https://laredy.ru/brands/WELLA%20PROFE...ON_ID=1299
https://laredy.ru/brands/WELLA%20PROFE...t_filter=y
set_filter:
https://laredy.ru/brands/BALANCE%20MEDESTHETIC/
https://laredy.ru/brands/BALANCE%20MED...t_filter=y
set_filter:
https://laredy.ru/brands/Gigi/?SECTION_ID=2768
https://laredy.ru/brands/Gigi/?SECTION...t_filter=y
set_filter:
https://laredy.ru/brands/WELLA%20PROFE...ION_ID=616
https://laredy.ru/brands/WELLA%20PROFE...t_filter=y
Если эти страницы действительно являются дублями, рекомендуем использовать директиву Clean-param в robots.txt, чтобы робот игнорировал незначащие GET-параметры и объединил все сигналы со страниц-копий на основной странице.
Как оставить в поиске нужную страницу
Добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Робот Яндекса, используя эту директиву, не будет много раз обходить повторяющийся контент. Значит, эффективность обхода повысится, а нагрузка на сайт снизится.
Если вы не можете добавить директиву Clean-param, укажите канонический адрес страницы, который будет участвовать в поиске. Это не уменьшит нагрузку на сайт: роботу Яндекса всё равно придётся обойти страницу, чтобы узнать о rel=canonical. Поэтому мы рекомендуем использовать Сlean-param как основной способ.
2) В Robots.txt прописана ссылка на Sitemap, по которой не находится файл карты сайта.
В Google Консоли Ранее была прописана другая ссылка на Sitemap, она успешно проходит и файл по ней можно найти.
Надо выявить ошибки, корректно настроить Robots.txt и определить правильную ссылку Sitemapещё
Стоимость
580 ₽
Дистанционно
· 15 октября 2022
Настройка robots.txt
Детали заказа
Сайт-визитка.
Платформа сайта: WordPress.
Настроить robots.txt не работает одна страница сайтаещё