Yandex въвежда нова директива за - Clean param

Време за четене 3 минути четене

Съвсем наскоро Yandex предостави възможност на уеб администраторите да използват нова директива за robots.txt - Clean param. И така, повече за това...

нова

Например сайтът има страници:

www.site.ru/some_dir/get_book.pl?ref=site_1&book_ > www.site.ru/some_dir/get_book.pl?ref=site_2&book_> www.site.ru/some_dir/get_book.pl?ref=site_3&book_ >

Потребителски агент: Yandex Disallow: Clean-param: ref /some_dir/get_book.pl

Синтаксисът за използване на директивата е:Clean-param: p0[&p1&p2&..&pn] [path]Първото поле, разделено с ‘&’, изброява параметрите, които трябва да бъдат игнорирани. Второто поле указва префикса на пътя на страниците, за които искате да приложите правилото.

Ако имате форуми и други ресурси, за които тази директива ще бъде от значение, тогава не забравяйте да я използвате. В крайна сметка проблемите с индексирането на такива ресурси не са необичайни и това позволява на робота да индексира сайта много по-добре, без да актуализира и постоянно да зарежда едни и същи страници с едно и също съдържание.

Съответно robots.txt Generator създава файлове за Google бота, но те се разбират и от много други големи роботи. Следователно ще трябва да добавите нова директива от Yasha към robots.txt, който сте създали, както е посочено в примера, и всичко ще бъде наред 🙂

P.S.

Блог на начинаещ астрахански SEO, хрониката на Мишкин, пиша за това, което мисля.

Пазач:

Темата за печелене на пари онлайн е винаги актуална, а във форума за печелене на пари онлайн можете да намерите реални методи и начини.

Вероятно всички вече знаят за новата система SEOpult. И тъй като тя е нова,Инструкциите на Seopult за работа със системата винаги са подходящи.

Много лесно и не е скъпо да създадете уеб сайт с услугите на студио за уеб дизайн ПолиМакс.