Какие бы совершенные алгоритмы не использовали поисковики, всё равно они никогда не смогут заменить человека. Но при том гигантском обьёме информации который сейчас находиться во всемирной паутине без автоматизации невозможно само существование поисковиков. Поэтому как бы мы не сетовали на очень странные порой результаты выдачи, деваться всё равно некуда. Особенно если дело касается своего собственного сайта или блога. Остаётся лиш самим разными путями исправлять ошибки поисковиков, и частенько методами которые эти сами поисковики не одобряют.

Но что делать если какой нибудь говносайт накупив кучи ссылок оказывается в выдаче выше твоего, нормального и с уникальным контентом, сайта? Да и ещё если с сайта наворовали контент и разместили на чужих сайтах? Например возмём сайт Скрипты и сервисы вебмастеру - php-ru.info . Практически на 80% сайт содержит оригинальный контент, 15% рерайт контента и только 5% неуникальный (реклама софта от партнёрской программы и словарь терминов). В последние пару месяцев куча страниц сайта выпали из поисковой базы Яндекса. И кто занает, это глюк или закономерность? Подобная история у меня уже была с одним сайтом, когда в индексе почти год находилось всего 5 страниц. А потом вдруг их стало 13000 ! Глюк или что?


---------------------------------------------------------------------------

Посты на похожие темы