Поисковые системы анализируют содержимое сайтов и весь важный контент добавляют в свой индекс, конечно при условии, если такой контент уникален и соответствует требованиям поисковика. Впоследствии этот контент учувствует в поисковой выдаче. Но иногда бывают и исключения, когда контент попадает не в основной индекс, а в дополнительный.

Многие вебмастера называют дополнительный индекс Google «сопливым фильтром» или «соплями Гугла». Сюда попадают различные страницы, которые, по мнению алгоритмов, считаются не достаточно информативными или в некоторой степени не соответствуют правилам поисковика. Другими словами сюда помещается весь серый контент, который не считается достаточно спамным для исключения из выдачи, но и не достоин места в основном индексе.

Каждую новую публикацию на сайте Google проверяет на соответствие различным параметрам и после принимает решение, в какой именно индекс следует отправить данный материал. Анализируются самые разные характеристики, также во внимание принимается и история самой веб-площадки. Если же ресурс раньше нарушал какие-то правила, то новые материалы анализируются более тщательно и при этом повышается вероятность попадания в дополнительный индекс поисковика. Поэтому за качеством нужно следить всегда.

Чем больше страниц отправляется в дополнительный индекс, тем меньше посетителей будет получать ресурс из поисковой системы. Часто причина падения трафика кроется как раз в том, что большинство страниц переносятся в дополнительный индекс по тем или иным причинам. Чтобы этого не допустить, нужно постоянно следить за соответствием сайта всем правилам поисковой системы.

Причины, по которым страницы попадают в дополнительный индекс:

— низкая уникальность контента;
— наличие дублей страниц;
— отсутствие или заспамленность тегов title и description;
— малое количество контента на страницах;
— несоответствие основного контента заголовку;
— продажа ссылок;

Дополнительный индекс также плох и тем, что страницы, содержащиеся в нем, краулеры посещают очень редко. Поэтому вывести их из «соплей» довольно сложно, ведь даже после исправления всех ошибок придется долго ждать, пока робот проверит их, и изменения вступят в силу.

Чтобы снизить вероятность попадания в дополнительный индекс и применения к сайту других фильтров нужно тщательно следить за качеством контента. И делать это нужно с самого старта проекта. Своевременно выявленные устраненные ошибки помогают сохранять позиции сайта и доход не пострадает. Так что нужно управлять репутацией, всегда поддерживать и не давать повода поисковым системам наказывать ресурс.






Так же друзья, советую почитать и эти статьи!!!

Рекомендации для покупателей билетов на авиатранспорт
Замена труб и монтаж счетчиков сегодня
Правильный выбор велоочков
Лизинг персонала как одно из новых направлений в современной кадровой политике
Основные особенности подбора оправы очков
Как выбирать полипропиленовые мешки и при этом не допустить ошибку
Таргетированная реклама: пустая трата денег, или же неограниченные возможности использования?
Экспорт товаров в ЯндексМаркет в OkayCMS
Как настроить Wi-Fi самостоятельно
В ожидании рождения малыша