Индексирование одного сайта на разных серверах делается в надежде получить дополнительную посещаемость, многие регистрируют по несколько доменных имен, ссылающихся на один и тот же сайт. Но в дублировании страниц с разными доменами и идентичным содержанием нет никакого смысла, т.к поисковые машины уже научились их опознавать. Что надо делать, чтобы у поискового робота не возникло сомнений в уникальности контента на всех ваших страницах? Знайте, что робот обращает внимание на ресурсы, которые ссылаются друг на друга и сравнивает заголовки, ключевые слова и контент на этих страницах, запоминая подозрительные. Затем он сравнивает друг с другом все подозрительные страницы. Из них могут быть признаны дублированными те, которые:
1. содержат исходящие ссылки, ведущие на один и тот же ресурс, и
2. количество таких ссылок одинаково на всех подозрительных страничках, или разница в их числе составляет менее 10%.
Создание дублированных страничек на разных серверах считается неэтичным методом продвижения веб-сайтов. Если же вы не собираетесь следовать моему совету и уверены в том, что этот прием вам поможет, воспользуйтесь следующими рекомендациями:
1. Измените на ваших страничках контент таким образом, чтобы они выглядели хоть немного по-разному;
2. Слегка измените заголовок, список ключевых слов, описание;
3. Убедитесь в том, что по крайней мере 10% ссылок на ваших страницах не являются общими.