Поисковые системы анализируют содержимое сайтов и весь важный контент добавляют в свой индекс, конечно при условии, если такой контент уникален и соответствует требованиям поисковика. Впоследствии этот контент учувствует в поисковой выдаче. Но иногда бывают и исключения, когда контент попадает не в основной индекс, а в дополнительный.

Многие вебмастера называют дополнительный индекс Google «сопливым фильтром» или «соплями Гугла». Сюда попадают различные страницы, которые, по мнению алгоритмов, считаются не достаточно информативными или в некоторой степени не соответствуют правилам поисковика. Другими словами сюда помещается весь серый контент, который не считается достаточно спамным для исключения из выдачи, но и не достоин места в основном индексе.

Каждую новую публикацию на сайте Google проверяет на соответствие различным параметрам и после принимает решение, в какой именно индекс следует отправить данный материал. Анализируются самые разные характеристики, также во внимание принимается и история самой веб-площадки. Если же ресурс раньше нарушал какие-то правила, то новые материалы анализируются более тщательно и при этом повышается вероятность попадания в дополнительный индекс поисковика. Поэтому за качеством нужно следить всегда.

Чем больше страниц отправляется в дополнительный индекс, тем меньше посетителей будет получать ресурс из поисковой системы. Часто причина падения трафика кроется как раз в том, что большинство страниц переносятся в дополнительный индекс по тем или иным причинам. Чтобы этого не допустить, нужно постоянно следить за соответствием сайта всем правилам поисковой системы.

Причины, по которым страницы попадают в дополнительный индекс:

— низкая уникальность контента;
— наличие дублей страниц;
— отсутствие или заспамленность тегов title и description;
— малое количество контента на страницах;
— несоответствие основного контента заголовку;
— продажа ссылок;

Дополнительный индекс также плох и тем, что страницы, содержащиеся в нем, краулеры посещают очень редко. Поэтому вывести их из «соплей» довольно сложно, ведь даже после исправления всех ошибок придется долго ждать, пока робот проверит их, и изменения вступят в силу.

Чтобы снизить вероятность попадания в дополнительный индекс и применения к сайту других фильтров нужно тщательно следить за качеством контента. И делать это нужно с самого старта проекта. Своевременно выявленные устраненные ошибки помогают сохранять позиции сайта и доход не пострадает. Так что нужно управлять репутацией, всегда поддерживать и не давать повода поисковым системам наказывать ресурс.






Так же друзья, советую почитать и эти статьи!!!

Продвижение сайта с помощью Яндекс Директ
Где отдохнуть и куда поехать в июне?
Несколько слов о браузере
Востребованность современной металлической мебели
Методы продвижения сайта
Рабочие возможности программы 1с Бухгалтерия
Как получить дополнительный заработок с помощью партнерских программ?
Хайроллеры – как играть в игровые автоматы бесплатно
Посещаемость сайта: как определить её у себя или на чужих сайтах
Особенности проживания в коттеджном поселке