воскресенье, 23 июня 2013 г.

“страница запрещена в METAх” – выпадение ссылок в статус ERROR и что с этим делать



Заметил недавно, что на одном сайте часть ссылок в статусе OK, а часть выпала в статус ERROR. Ну иногда такое случается, по-этому не обратил сперва внимания – мало ли, может робот когда проверял ссылки не докачал страницу (сервак под нагрузкой ведь с разных сторон). Но когда через три дня я обнаружил в сапе в интерфейсе вебмастера ту же картину, то это заставило задуматься. Ведь ладно один день, но три – это уже слишком много для такого положения вещей. Полез смотреть, что же за ошибку выдаёт. Текст сообщения был таковым: «страница запрещена в METAх».
Вот те на, я же ничего на этом сайте 100 лет уже не делал, с чего бы это там что-то запретилось? Ну дело такое … полез смотреть код страницы. И что же я вижу? А вот такое:
<meta name=«robots» content=«all»>
<meta name=«revisit-after» content=«1 days»>
<meta name=«robots» content=«noarchive»>
И тут вдруг сразу вспомнилось, что месяцок или два назад всё же вносил изменения в шаблон заголовка страницы – добавил вот это:
<meta name=«robots» content=«noarchive»>
При добавлении такой конструкции поисковики не сохраняют страницу в кеш. Почему-то мне тогда взбрело в голову что не нужно хранить им мой сайт. Почему? – не знаю, видимо что-то прочитал и решил и себе такое сделать
Ну и напрашивается вопрос: а почему же не выпало с ошибкой ещё тогда, давно? Ну видать программисты sape.ru что-то новенькое дописали, и теперь стало вот так вот.

Комментариев нет:

Отправить комментарий