«Звериные» алгоритмы и фильтры Google: как провести оптимизацию сайта правильно .

google optimization

«Звериные» алгоритмы и фильтры Google: как провести оптимизацию сайта правильно

     Фильтры Гугл, как и любого другого поисковика, преследуют одну цель: согласно определенным критериям провести индексацию сайтов и откинуть ГС. Только самые-самые достойны находиться в ТОПе. Многостраничные рекомендации самой поисковой системы чаще только запутывают вебмастеров, которые в своих попытках приблизиться в идеалу, только ухудшают ситуацию. 

Что же представляет из себя оптимизация сайта под google И чем она отличается от других? Об этом и поговорим более детально.

Самым спорным фильтром Гугла считается «песочница». Он создан для отсеивания ресурсов, срок жизни которых еще недостаточный (Гугл не признает молодых и «зеленых» в своем рейтинге). Показателей, по которым оценивается сайт, несколько. Это и количество страниц, и уровень посещаемости, и возраст. Если смотреть с одной стороны, то, безусловно, на первых позициях должны находиться только авторитетные и проверенные временем ресурсы. Но с другой стороны, как молодым и перспективным подняться по рейтинговой лестнице? Вариантов здесь немного, а точнее один. Воспользоваться начальным временем для качественного наполнения своего сайта, чтобы со временем преодолеть «песочницу». 

Еще одним страшным «зверем» в системе алгоритмов Гугла является фильтр «Панда». И основным критерием здесь выступает контент, т.е. информационное наполнение сайтов. Его уникальность, грамотность, простота и доступность подачи, достоверность. Гугл анализирует все в комплексе, отсеивая некачественный материал и плагиат. Чаще всего под этот фильтр попадают сео-статьи, максимально напичканные ключевиками, поэтому превышать допустимые нормы, увеличивая тошноту материала, не стоит. Что касается копипаста, то здесь есть некоторые отступления от правил. Как заявляет сам ресурс, некоторые тексты просто невозможно сделать уникальными, не потеряв из исходный смысл (например, законы или стандарты), поэтому они будут пропускаться Пандой без особых сложностей. 

Если трафик резко сократился, а новые страницы перестали индексироваться, то , скорее всего, у Вас «Панда», которую необходимо быстро лечить. Для этого следует перепроверить все материалы на наличие плагиата и, если таковой имеется, уникализировать его и провести повторную индексацию.

Второй «зверь» Гугла – Пингвин. Он намного страшнее и опаснее, потому, что проводит анализ внешних факторов, влияющих на ранжирование. Его внимание сосредоточено исключительно на ссылках. Пингвином могут быть отсеяны и те сайты, которые хорошо оптимизированы под Панду. Те внешние ссылки, который Пингвин посчитает плохими, будут полностью исключены. И как ни странно, большинство поплатились за ключевики, которые содержались во внешних ссылках. 

И если бороться с Пандом еще возможно, то Пингвин практически не поддается лечению. Поэтому нужно быть аккуратными с самого начала, чтобы потом не переносить сайт на новый домен.

Ссылка на основную публикацию