Внутренняя SEO оптимизация DLE сайтов
17 апреля 2014
И так, я не буду разводить воду, а сразу приступлю к теме.
Начнём:
Первое что необходимо сделать это:
Оптимизировать файл robots.txt
Этот файл необходим нашему сайту для того, Дабы запретить к индексации поисковикам определённые страницы сайта.
Это может быть скажем страница регистрации пользователей, страница для распечатки новости, страница админки.
Все они со временем всё равно выпадут из индекса ПС. Вот таким должен быть верный файл robots.txt для варезника.
При таком подходе будет поменьше страниц с схожим контентом, поменьше шансов словить АГС либо какую-то иную заразу. Мне кажется, Чем огромнее отношение “страниц для людей” к страницам без смысла, тем огромнее траст сайта.
Так же незабвен что делая robots.txt рассматривайте какой вид ЧПУ у Вас включен (скажем если у вас новости по дате отображаются то не нужно воспрещать дату, а то новости в индекс не попадут, если нет вообще ЧПУ то там иной образец для итога новостей, категорий и страниц навигации).
Неплохо будет настроить файл .htaccess тот, что так же находится в корне сайта где и файл robots.txt и является файлом для дополнительной настройки web-сервера.