Дополнительный индекс в Google, что это?
Поисковые системы анализируют содержимое сайтов и весь важный контент добавляют в свой индекс, конечно при условии, если такой контент уникален и соответствует требованиям поисковика. Впоследствии этот контент учувствует в поисковой выдаче. Но иногда бывают и исключения, когда контент попадает не в основной индекс, а в дополнительный.
Многие вебмастера называют дополнительный индекс Google «сопливым фильтром» или «соплями Гугла». Сюда попадают различные страницы, которые, по мнению алгоритмов, считаются не достаточно информативными или в некоторой степени не соответствуют правилам поисковика. Другими словами сюда помещается весь серый контент, который не считается достаточно спамным для исключения из выдачи, но и не достоин места в основном индексе.
Каждую новую публикацию на сайте Google проверяет на соответствие различным параметрам и после принимает решение, в какой именно индекс следует отправить данный материал. Анализируются самые разные характеристики, также во внимание принимается и история самой веб-площадки. Если же ресурс раньше нарушал какие-то правила, то новые материалы анализируются более тщательно и при этом повышается вероятность попадания в дополнительный индекс поисковика. Поэтому за качеством нужно следить всегда.
Чем больше страниц отправляется в дополнительный индекс, тем меньше посетителей будет получать ресурс из поисковой системы. Часто причина падения трафика кроется как раз в том, что большинство страниц переносятся в дополнительный индекс по тем или иным причинам. Чтобы этого не допустить, нужно постоянно следить за соответствием сайта всем правилам поисковой системы.
Причины, по которым страницы попадают в дополнительный индекс:
— низкая уникальность контента;
— наличие дублей страниц;
— отсутствие или заспамленность тегов title и description;
— малое количество контента на страницах;
— несоответствие основного контента заголовку;
— продажа ссылок;
Дополнительный индекс также плох и тем, что страницы, содержащиеся в нем, краулеры посещают очень редко. Поэтому вывести их из «соплей» довольно сложно, ведь даже после исправления всех ошибок придется долго ждать, пока робот проверит их, и изменения вступят в силу.
Чтобы снизить вероятность попадания в дополнительный индекс и применения к сайту других фильтров нужно тщательно следить за качеством контента. И делать это нужно с самого старта проекта. Своевременно выявленные устраненные ошибки помогают сохранять позиции сайта и доход не пострадает. Так что нужно управлять репутацией, всегда поддерживать и не давать повода поисковым системам наказывать ресурс.