Есть крупный проект домен-скрыт.ru (подбор электронных компонентов) с 3-4 млн. страниц. Домен новый.
На индексацию подан в декабре. Итого: Яндексробот съел 800+ тыс, в индекс попало сразу в декабре 6 000, потом выкинуло до 200 шт. (в январе). Сейчас в индексе 408 шт. Гугл: 400 тыс. съел робот, 2 335 в индексе на сейчас, изначально в декабре было 98 тыс.
Что было сделано:
сначала просто пустили роботов на сайт
потом, после удаления страниц из индекса, провели шаблонную оптимизацию для уникализации страниц
Вот как выглядят графики индексации:
Как бы увеличить количество страниц в поиске? Есть ли способы, хитрости? Больше интересует Яндекс.
Страницы отсутствуют в основном индексе
В первую очередь, Антон, надо понимать, что проблема тут именно не с первичной индексацией (с ней всё более-менее), а с включением документов в основной индекс / поиск. То есть, поисковая система знает о существовании страниц, но размещает их в скрытом индексе, так как считает, что отсутствует значимая вероятность их попадания в ТОП выдачи хотя бы по одному запросу.
Данное поведение может наблюдаться в двух случаях:
Ошибки в настройке файла robots.txt, meta-тегов или кодов ответа сервера. В этом случае, документы могут скачиваться, но сразу исключаться из основного индекса. Проверьте показатели в новом вебмастере Яндекса (https://beta.webmaster.yandex.ru/site/http:www.ваш-домен.ru:80/indexing/indexing/) и сводку «Исключенные страницы».
Низкие значения статических факторов домена и страницы. То есть, поисковая система делает вывод, что документы не могут попасть в ТОП-10 выдачи на основании ряда статических метрик.
Стоит отметить, что в вашем случае, могут сочетаться сразу две указанные проблемы, так как содержимое файла robots.txt — трешевое:
Требуется проверить, как вообще интерпретируется данное содержимое поисковой системой и исправить сам файл.
Даже если просто обратиться к сниппетам в выдаче, можно сразу выявить множество проблем (указаны на изображении).
Итого: проблемы на вашем сайте очевидны. Их слишком много, чтобы перечислить сразу все, начните с решения самых насущных задач:
Настройка индексации: несмотря на то, что страниц в выдаче мало, там уже есть мусор, который надо исключить (страницы поиска по сайту). Важно на стартовом этапе закрыть все мусорные страницы от поисковых роботов и обеспечить доступность важных документов.
Уникализация страниц. Для того, чтобы понять зачем вам документы в поиске, надо собрать семантическое ядро и произвести базовую оптимизацию сайта под запросы, входящие в него. Это позволит существенно увеличить объем уникального и полезного пользователям контента.
Обеспечить стабильность работы сайта. Буквально 5 минут сёрфинга привели к попаданию на пустые страницы с текстом: «Доступ временно запрещен!»
Улучшить перелинковку и уменьшить уровень вложенности значимых страниц. Это также необходимо для улучшения юзабилити и распределения веса внутри сайта.
Удачи в работе и самостоятельном решении указанных проблем! Мы верим в вас.
Как правильно настроить AMP для сайта? Настройка связки обычных страниц с АМР с учетом языковых версий сайта
Мария, спасибо за вопрос про AMP в Google, это действительно актуальная тема сейчас и важно разобраться в индексации таких страниц, чтобы не навредить сайту и его трафику... Читать ответ полностью »
Дата ответа:
Владислав Бирюков:
После изменения URL-адреса раздела и вложенных страниц Яндексу стали доступны обе версии, и он признал их дублями. Не смотря на то, что сейчас для страниц настроен 301 редирект, они не удаляются из выдачи. Сколько времени нужно, чтобы дубли были исключены из индекса? Есть ли способы ускорить этот процесс?
Спасибо за столь детальное описание совершенных действий и возникшей проблемы! Предлагаем разобраться, на каком этапе была совершена ошибка при смене URL, а также вместе проведем эксперимент и поймем, как быстро Яндекс обновит информацию о дублях в панели Вебмастер. Читать ответ полностью »
Дата ответа:
Роман Зарубин:
Нужно ли закрывать тегами <noindex> повторяющиеся блоки на страницах сайта, такие как: преимущества, услуги, гарантии, цены? Стоит ли использовать подзаголовки этих блоков при оптимизации страниц?
Спасибо за вопрос про дублирование целевых блоков в рамках страниц сайта и действительно, многие полностью закрывают их тегами <noindex>. Читать ответ полностью »
Дата ответа:
Данный вопрос — приоритетный!
Елизавета:
У нас довольно старый и авторитетный новостной сайт, на котором очень много дублей в индексе. Как лучше и правильней от них избавиться? Проект большой и важно позаботиться и о краулинговом бюджете. Рассматриваем три варианта, помогите выбрать...
На самом деле, способов удалить документ из выдаче гораздо больше, но есть как «правильные», так и неподходящие варианты. Давайте поймём, какой подход удаления дублей лучше всего подходит вашему проекту. Читать ответ полностью »
Дата ответа:
Принципиально новые условия сотрудничества в SEO — зарабатываем только вместе!
Уникальный тариф «Оборот», где доход агентства больше не зависит от визитов и позиций вашего сайта, а привязан исключительно к росту оборота вашей компании.
Максимальное погружение агентства в нюансы вашего бизнеса, конкурентного окружения и тематики.
Самый прозрачный показатель эффективности, который нельзя «накрутить».
Идеально подходит для интернет-магазинов и сайтов услуг с возможностью масштабирования.
Минимальная фиксированная часть оплаты — от 79 500 рублей.
Тариф, который хотели сделать многие, но реализовали только мы.