Входе некоторых действий для продвижения сайта, поисковые системы могут его забанить. К сожалению договорится с машинами нельзя, поэтому если сайт закрыли то восстановлению он не подлежит. Получается все денежные затраты, время и усилия потрачены в пустую. Центр любого сайта его текст и ключевые слова. Роботы поисковики запрограммированы на то что бы распознавать конкретно прописанную информацию пользователем. То есть чем точнее сходятся ключевые слова с сайтом тем большая возможность бить в ТОПе. А черные оптимизаторы в основном специально стараются добавить как можно больше схожих вхождений и быстрее поднять сайт на лидирующие позиции. Что бы в ходе таких операций робот поисковик не заметил и не отправил в бан сайт, нужно прибегать к обманным маневрам. Одним из основных способов обмануть систему, является клоакинг. Что такое клоакинг? Клоакинг это методика позволяющая засекретить данные которые видят пользователи от поисковых систем. В общем сделать так чтобы робот видел только тот оптимизированный сайт и текст, который нам нужно. Простыми словами: спрятать, скрыть «лишнюю» информацию от поисковых роботов. Клоакинг делится на 3типа: 1. Черный. Нелегальные шифрование текста на сайте от поисковых машин. Пользователь видит ту информацию что ему нужно, а робот оптимизированный текстовый контент. 2. Серый заключается в том что текстовый контент может иметь несколько вариантов. Потому что иногда на сайте посетитель имеет возможность распечатать инфу. Переходя по представленным ссылкам, текст может считаться не уникальным. Чтобы избежать подобных ситуаций на ссылку устанавливают редирект, который автоматически перенаправляет ссылочный вес на изначальную страницу сайта. Такой тип не запрещен и не должен привлекать внимание роботов. 3. Белый способ, который не влечет за собой ряд последствий (штрафы и т.д.), то есть легальный. Поисковые системы не могут предаться к работе с помощью белого клоакинга. Суть этого типа: переадресовать посетителей на другую ссылку для облегчения работы сайта. Посетителя от робота можно легко отличить благодаря IP-адресу или User Agent. Такие системы автоматически предоставляют клиенту стандартный контент, а машине хорошо оптимизированный сайт. Рассмотрим каждую программу и их отличия: 1. User Agent наиболее распространенный и легкий способ клоакинга. Для того что бы программа распознала робота, нужно знать его имя. После прописывается функция распознавания имен и система покажет нужную информацию каждому кто заходит на сайт. Данные User Agent, которые имеют имя поисковой машины просматриваются Вебмастером. Проверить работу системы, Вы можете зайдя на сайт под именем робота и проверить переделанный текст. Конкуренты часто таким способом определяют клоакинг на сайте соперника, что бы потом предъявить факт о мошенничестве поисковым машинам. Естественно это делается, для того что бы робот отправил сайт в бан. 2. IP-адрес. Если предыдущий считается самым легким, то клоакинг через IP-адрес, считается самым эффективным. Фальсифицировать такой способ практически не возможно. Текстовый контекст для посетителя выбирается со спец. базы. Такую схему трудно распознать поисковому роботу, а тем более конкурентам. Данный возможен только с наличием доступа к IP-адресам. 3. Клоакинг комбинированный. Представляет собой смесь проверки IP-адреса и User Agent. Такой способ считается самым лучшим и эффективным при этом для его осуществления нужно потратить больше времени и сил. Клоакинг считается незаконным и запрещается всеми поисковыми системами. Но клоакинг бывает и легальным. Помимо того что в основном клоакинг запрещен, это никого не останавливает, а дает повод для новых идей и лазеек, что бы обойти систему.