Здравствуйте! У меня два вопроса:

1) Ошибся в robots.txt и после индекса вылетели все страницы проекта кроме одной. У проекта были ТОП-1-3-5-10-30 и т.д.

Что теперь делать? Вернутся ли позиции? Яша больше не даст шанс?

Проекту около 1 года — ссылки не покупались.

2) И как запретить индексацию категории site.ru/apple/, но чтобы чтобы карточки товара были в индексе (site.ru/apple/iphone-6s-16gb)?

Имеются ли подобные приёмы?


robots.txt: верный способ выгнать сайт из ТОПа

Роман, сочувствуем. Но, как показывает практика, вы не одиноки в своих ошибках и подобные косяки межгалактического масштаба встречаются довольно регулярно. Наиболее часто — при выкате новой версии сайта на боевой домен (разработчики оставляют старый, тестовый robots.txt).


1. Вернутся ли позиции?

Да, после того как Яндекс повторно зайдёт на ваш сайт, он в первую очередь заглянет в файл robots.txt.

Если в обновленной версии файла запрет на индексацию документов будет снят, то они будут переиндексированы и большая часть позиций вернётся в ближайшие несколько текстовых апдейтов. Но, в вас проблемы, с начала года было всего 6 текстовый апдейтов и если частота не будет увеличена, то возвращения позиций можно будет ожидать более 1-1,5 месяцев.


Но будут ли проблемы?

Да, если тематика у вас конкурентная, то вы также зафиксируете и дальнейшее падение позиций. Произойдёт это по причине проигрыша конкурентам в ТОП-10 по набору кликовых поведенческих факторов (ПФ).

За даты, пока ваш сайт отсутствовал в выдаче — конкуренты успешно «копили» свои ПФ. В результате чего, при прочих равных, ваш сайт соберет меньше поведенческой информации, что приведёт к его просадке после апдейта с учётом (обновлением) кликовых ПФ (см. иллюстрацию ниже).

Падение позиций сайта из-за отсутствия кликовых ПФ


2. Скрыть от индексации раздел и открыть карточки товаров

Да, имеется сразу несколько способов реализовать указанную вами задачу номер два (скрыть раздел, но открыть для индексации карточки товаров, которые расположены в нём). Укажем два наиболее популярных, в том порядке, как мы рекомендуем их использовать.

  1. Закрыть от индексации документ/раздел с помощью meta-тега name="robots".

  2. Использовать следующую пару директив в файле robots.txt:

    Аllow: /apple/iphone
    Disallow: /apple/

    Или использовать спецсимвол $ и обойтись одной директивой:

    Disallow: /apple/$

Удачи в восстановлении позиций сайта и не повторяйте своих ошибок!


Работа в Пиксель Плюс
SEO-сервисы от Пиксель Плюс

Дата ответа:
Вопросы по теме
Файл robots.txt     Проблемы с индексацией    


Поделиться с друзьями
Последние вопросы из категории: Индексация
Маша Ласкина:
Как правильно настроить AMP для сайта? Настройка связки обычных страниц с АМР с учетом языковых версий сайта
Мария, спасибо за вопрос про AMP в Google, это действительно актуальная тема сейчас и важно разобраться в индексации таких страниц, чтобы не навредить сайту и его трафику... Читать ответ полностью »
Дата ответа:
Владислав Бирюков:
После изменения URL-адреса раздела и вложенных страниц Яндексу стали доступны обе версии, и он признал их дублями. Не смотря на то, что сейчас для страниц настроен 301 редирект, они не удаляются из выдачи. Сколько времени нужно, чтобы дубли были исключены из индекса? Есть ли способы ускорить этот процесс?
Спасибо за столь детальное описание совершенных действий и возникшей проблемы! Предлагаем разобраться, на каком этапе была совершена ошибка при смене URL, а также вместе проведем эксперимент и поймем, как быстро Яндекс обновит информацию о дублях в панели Вебмастер. Читать ответ полностью »
Дата ответа:
Роман Зарубин:
Нужно ли закрывать тегами <noindex> повторяющиеся блоки на страницах сайта, такие как: преимущества, услуги, гарантии, цены? Стоит ли использовать подзаголовки этих блоков при оптимизации страниц?
Спасибо за вопрос про дублирование целевых блоков в рамках страниц сайта и действительно, многие полностью закрывают их тегами <noindex>. Читать ответ полностью »
Дата ответа:
Данный вопрос — приоритетный!
Елизавета:
У нас довольно старый и авторитетный новостной сайт, на котором очень много дублей в индексе. Как лучше и правильней от них избавиться? Проект большой и важно позаботиться и о краулинговом бюджете. Рассматриваем три варианта, помогите выбрать...
На самом деле, способов удалить документ из выдаче гораздо больше, но есть как «правильные», так и неподходящие варианты. Давайте поймём, какой подход удаления дублей лучше всего подходит вашему проекту. Читать ответ полностью »
Дата ответа:
Задать свой вопрос #
Ваше имя:
E-mail:
Ваш вопрос:
Получать информацию о новых вопросах:
Прикрепить файл:
Максимальное количество файлов 30,
не более 5 МБ каждый

Задать свой вопрос
Получать информацию о новых вопросах
Максимальное количество файлов 30 (не более 5 МБ каждый)

Принципиально новые условия сотрудничества в SEO — зарабатываем только вместе!

Уникальный тариф «Оборот», где доход агентства больше не зависит от визитов и позиций вашего сайта, а привязан исключительно к росту оборота вашей компании.

Тариф, который хотели сделать многие, но реализовали только мы.

К тарифу «Оборот»