Robots.txt для WebAsyst (яша криво индексирует)
9 сообщений
#14 лет назад
Добрый день!Вопрос к знающим...
Подскажите как правильно прописать Robots.txt для webasyst при возникновении проблем с индексацией:
Правильный урл ссылка
а яша нидексирует его как ссылка
index.php почему то выкидывает, причём не для всех страниц,
в итоге получается множество страниц - дублей, то одна в индексе то другая - проблема!!
может сделать 303 редирект с */?show_aux_page=39 на */ index.php?show_aux_page=39
я так думаю что надо комплексом решать и htaccess и роботс править,
в общем не могу решить проблему

Спасибо.
1157 сообщений
9 сообщений
#14 лет назад
Цитата ("superkoder"):значит у Вас действительно на сайте есть дубли страниц
две приведённые как пример страницы - это одна и та же страница так как обращение идёт в любом случае к index.php
301 так точно - опечатка.
Цитата ("superkoder"):
Поправьте Ваш сайт и уберите дубли.
это сделать невозможно движок не позволяет.