Поиск с помощью системы Google возможен благодаря двум с лишним сотням сигналов, которые распознаются различными алгоритмами Google. Система учитывает все:
В 2012 году корпорация внедрила в работу алгоритм Penguin, а три дня назад – его новую версию. Эта версия была создана с учетом пожеланий веб-мастеров и должна больше соответствовать их потребностям. Например, уже существует множество языковых версий алгоритма Penguin.
Прежняя версия алгоритма не могла оперативно обрабатывать информацию об изменениях, произошедших на страницах, а потому Penguin зависел от обновлений. Новая версия работает в режиме реального времени, и большая часть изменений станет обрабатываться сразу по завершении сканирования и процедуры индексирования сайта.
Новая версия алгоритма оперирует более подробной информацией, и теперь для борьбы со спамом алгоритм не станет менять рейтинг всей страницы, а лишь скорректирует его, учитывая сообщения о спаме.
Разработчики Google соглашаются с тем, что с 2012 года интернет здорово изменился, однако они призывают веб-мастеров создавать новые страницы, привлекательные и полезные, а не сосредотачиваться исключительно на оптимизации для поиска уже существующих. Они напоминают, что изменения алгоритма Penguin касаются только одной двухсотой части всех сигналов, исходя из которых формируются рейтинги интернет-страниц.
Фильтр Пингвин можно определить по резкому проседанию трафика в поиске Гугла. Для анализа сайта на фильтр Пингвин от Google рекомендуется внимательно изучить аналитику.
1. Выгрузжаем все внешние ссылки из доступных источников: биржи ссылок, яндекс вебмастер, гугл вебмастер, linkpad, ahrefs.
2. Анализир доноров по определенным параметрам.
3. Отсев не посещаемых, заспамленных, с большим количеством внешних ссылок сайтов.
4. Делаем текстовый файл с отклоняемыми сайтами в формате domain:донор.ru.
5. Отправляем сайт на пересмотр и ожидаем восстановление трафика.
6. Если через 4-8 недель не наблюдается эффекта, то делаем отсев ссылок снова и отправляем сайт на пересмотр.