Yandex въвежда нова директива за - Clean param
Време за четене 3 минути четене
Съвсем наскоро Yandex предостави възможност на уеб администраторите да използват нова директива за robots.txt - Clean param. И така, повече за това...

Например сайтът има страници:
www.site.ru/some_dir/get_book.pl?ref=site_1&book_ > www.site.ru/some_dir/get_book.pl?ref=site_2&book_> www.site.ru/some_dir/get_book.pl?ref=site_3&book_ >
Потребителски агент: Yandex Disallow: Clean-param: ref /some_dir/get_book.pl
Синтаксисът за използване на директивата е:Clean-param: p0[&p1&p2&..&pn] [path]Първото поле, разделено с ‘&’, изброява параметрите, които трябва да бъдат игнорирани. Второто поле указва префикса на пътя на страниците, за които искате да приложите правилото.
Ако имате форуми и други ресурси, за които тази директива ще бъде от значение, тогава не забравяйте да я използвате. В крайна сметка проблемите с индексирането на такива ресурси не са необичайни и това позволява на робота да индексира сайта много по-добре, без да актуализира и постоянно да зарежда едни и същи страници с едно и също съдържание.
Съответно robots.txt Generator създава файлове за Google бота, но те се разбират и от много други големи роботи. Следователно ще трябва да добавите нова директива от Yasha към robots.txt, който сте създали, както е посочено в примера, и всичко ще бъде наред 🙂
P.S.
Блог на начинаещ астрахански SEO, хрониката на Мишкин, пиша за това, което мисля.
Пазач:
Темата за печелене на пари онлайн е винаги актуална, а във форума за печелене на пари онлайн можете да намерите реални методи и начини.
Вероятно всички вече знаят за новата система SEOpult. И тъй като тя е нова,Инструкциите на Seopult за работа със системата винаги са подходящи.
Много лесно и не е скъпо да създадете уеб сайт с услугите на студио за уеб дизайн ПолиМакс.