Robots.txt для WebAsyst (яша криво индексирует)
9 повідомлень
#14 років тому
Добрый день!Вопрос к знающим...
Подскажите как правильно прописать Robots.txt для webasyst при возникновении проблем с индексацией:
Правильный урл посилання
а яша нидексирует его как посилання
index.php почему то выкидывает, причём не для всех страниц,
в итоге получается множество страниц - дублей, то одна в индексе то другая - проблема!!
может сделать 303 редирект с */?show_aux_page=39 на */ index.php?show_aux_page=39
я так думаю что надо комплексом решать и htaccess и роботс править,
в общем не могу решить проблему

Спасибо.
1157 повідомлень
#14 років тому
Цитата ("flyerscool"):а яша нидексирует его как посилання
index.php почему то выкидывает, причём не для всех страниц,
Раз яша индексирует, значит у Вас действительно на сайте есть дубли страниц.
Поправьте Ваш сайт и уберите дубли.
Сделать редирект - хорошая идея, только не 303, а 301.
9 повідомлень
#14 років тому
Цитата ("superkoder"):значит у Вас действительно на сайте есть дубли страниц
две приведённые как пример страницы - это одна и та же страница так как обращение идёт в любом случае к index.php
301 так точно - опечатка.
Цитата ("superkoder"):
Поправьте Ваш сайт и уберите дубли.
это сделать невозможно движок не позволяет.