Финансовый кризис 2007-2008 года привлек внимание многочисленных режиссеров. Каждый постарался по...
«Безопасные», Web Safe или Browser Safe цвета – это палитра, состоящая из 216 оттенков, которые...
Грубейшая ошибка, часто допускаемая блогерами – отсутствие стратегий продвижения свежей...
ИНФОГРАФИКА
Интересуясь той или иной компанией, пользователи в первую очередь обращаются в Google. Чаще всего...
Практически ежегодно поисковая система Гугл производит крупное обновление алгоритмов. Это необходимо для того, чтобы улучшить выдачу сайтов, что в итоге сможет повлиять на рейтинг сайтов в целом.
Google Panda – алгоритм поисковой системы Гугл, был введен с целью понижения в результатах поиска сайты, которые содержат не уникальный, низкокачественный либо дублированный контент. Самый первый релиз этого алгоритма был в феврале 2011 года.
Попасть под такой фильтр гораздо проще, чем выйти из него. Как же все-таки обычно попадают под Google Panda, приведено ниже:
Ссылки на сайт – огромное количество анкорных линков на страницах.Неравномерность распределенных ссылок ведущих на главную.
Дубли страниц – переизбыток дублированных страниц на сайте, битые ссылки, страницы, которые практически не несут никакой информации (пустые).
Уникальность – если контент не уникален или дублирован.
Внешние ссылки – если исходящих ссылок на страницах в среднем больше трех.
Посещаемость и отказы – скучные не интересные статьи, которые не интересны целевой аудитории.
Теги – если на ряде страницах дублируются метаданные title, description.
Переоптимизация текста – переизбыток выделение текста «жирными» тегами <b> и <strong>, избыточная перелинковка.
Реклама – большое количество рекламы.
Все это может спровоцировать Google Панду, и как следствие будут наложены санкции, конечно не за одно нарушение, а скорее за ряд нарушений из этого списка. За какой промежуток времени можно вывести сайт из-под Панды никто точно не знает, но исходя из опыта специалистов, которые занимались этой проблемой, этот процесс примерно может занять один-два месяца. |
![]() |
Чтобы не попасть под действие алгоритма Google Panda Мэтт Каттс рекомендует создавать уникальный и в тоже время интересный контент.
«После интеграции Google Panda в процесс индексации, контент стал ключевой целью всей системы», - говорит Мэтт Каттс. «Если Ваш сайт утратил позиции в ранжировании, необходимо разобраться, содержит ли он дублированный, копированный контент, либо же контент, который не несет никакой важности? Просто необходимо создать что-то интересное и уникальное, только в этом случае Ваш сайт поднимется в выдаче Google».
Выбраться из-под фильтра возможно и для этого нужно поработать с сайтом: нужно уникализировать тексты, избавиться от краденного контента, устранить переспам ключевиков. Необходимо всегда следовать принципу: количество рекламы на сайте должно соответствовать количеству уникального контента.
Финансовый кризис 2007-2008 года привлек внимание многочисленных режиссеров. Каждый постарался по...
«Безопасные», Web Safe или Browser Safe цвета – это палитра, состоящая из 216 оттенков, которые...
Грубейшая ошибка, часто допускаемая блогерами – отсутствие стратегий продвижения свежей...
ИНФОГРАФИКА
Интересуясь той или иной компанией, пользователи в первую очередь обращаются в Google. Чаще всего...