Индексирование
одного сайта на разных серверах делается в надежде получить
дополнительную посещаемость, многие регистрируют по несколько доменных
имен, ссылающихся на один и тот же сайт. Но в дублировании страниц с
разными доменами и идентичным содержанием нет никакого смысла, т.к
поисковые машины уже научились их опознавать.
Что надо делать,
чтобы у поискового робота не возникло сомнений в уникальности контента
на всех ваших страницах? Знайте,
что робот обращает внимание на ресурсы, которые ссылаются друг на друга и
сравнивает заголовки, ключевые слова и контент на этих страницах,
запоминая подозрительные. Затем он сравнивает друг с другом все
подозрительные страницы. Из них могут быть признаны дублированными те,
которые:
1. содержат исходящие ссылки, ведущие на один и
тот же ресурс, и
2. количество таких ссылок одинаково на всех
подозрительных страничках, или разница в их числе составляет менее 10%.
Создание
дублированных страничек на разных серверах считается неэтичным методом
продвижения веб-сайтов. Если же вы не собираетесь следовать моему совету
и уверены в том, что этот прием вам поможет, воспользуйтесь следующими
рекомендациями:
1. Измените на ваших страничках контент таким
образом, чтобы они выглядели хоть немного по-разному;
2. Слегка измените заголовок, список ключевых
слов, описание;
3. Убедитесь в том, что по крайней мере 10% ссылок
на ваших страницах не являются общими.
Добавил: sfvalentin
19.09.2024 Просмотров: 339
Комментарии