Излагая суть вкратце, можно отметить, что принцип технологии заключается в следующем – поисковому роботу демонстрируется одна страница, а посетителю, который просматривает ресурс, совершенно другая. Есть и другие способы,например низкочастотное продвижение сайта.
Для чего это нужно? Вопреки известному мнению, так делают не только спамеры. Основная причина достаточно простая – страница, показываемая роботу, не будет видна посетителем, и ее, соответственно, невозможно украсть.
Если была создана качественная страница для привлечения аудитории, то, скорее всего, в скором времени она будет украдена и скопирована на другие сайты. Если и не скопируют, то проведут ее анализ действий поискового робота. Проще говоря, люди будут видеть все ваши производственные секреты. Скрыв код страницы, можно получить серьезное преимущество среди конкурентов.
Вторая причина клоакинга менее честна. Ввиду того, что индексируемую страничку не будет видеть никто, кроме робота, она, естественно не нуждается в должном оформлении. И нет необходимости снабжать ее хорошей навигацией, делать красивой и т.д. И не придется забивать голову различными проблемами.
Есть два метода клоакинга: по IP и по UserAgent.
UserAgent
Данный метод применяет значение параметров UserAgent, которые передаются серверу во время обращения к нему. Каждый робот обладает своим именем, и если документ запрашивается роботом, чье имя находится в списке, то ему, соответственно, выдается качественно оптимизированная страница. Если же его имени нет, то сервер (точнее сказать скрипт) будет считать, что сайт посетил пользователь и показывает обычную страницу. В этом, в принципе, и заключается работа скрипта.
Метод эффективный, но сегодня крайне ненадежный. Если воспользоваться самодельным скриптом с ложным UserAgent, то ему будет показываться оптимизированная страница. А если поисковая машина поменяет имя робота, то, конечно, он увидит реальную неоптимизированную страницу. При подобном двойном просмотром страниц сайта с различным UserAgent владелец сайта будет уличен в клоакинге, и это является наиболее веской причиной для удаления ресурса из базы данных поисковой системы.
Использование IP при клоакинге
Более сильный способ заключается в распознавании IP пользователя и сравнения его с теми IP, которые принадлежат поисковым роботам. Естественно, данный метод потребует наличия мощнейшей базы данных, к тому же систематически обновляемой, но зато IP-адрес будет невозможно подделать. Поэтому существует определенная гарантия, что человек не увидит реальную страницу. Множество скриптов, которые осуществляют клоакинг, работают по данному принципу. В большинстве случаев, они чрезвычайно дорого стоят, как правило, из-за систематического обновления базы данных адресов поисковых роботов.
Если требуется добиться успеха, обгоняя при этом сильных конкурентов на рынке, где в действительности можно хорошо заработать, то данная технология может пригодиться. Но желательно даже не думать о клоакинге, если основная задача – простое привлечение посетителей на собственный ресурс. Большинство веб-мастеров достигают успеха, раскручивая и продвигая сайт традиционными способами. При этом следует учитывать, что использование клоакинга потребует огромных временных затрат, т.к. нужно периодически следить за базой данных, работой скриптов и т.п. Конечно, если поисковый робот обнаружит на вашем сайте использование данной технологии, то ресурс будет немедленно отправлен в бан.