5 погрешни схващания, за които много SEO специалисти не знаят

Много често начинаещите оптимизатори биват подвеждани по форуми и блогове, след което следват тези принципи до края на живота си, носейки това знание и предавайки го от поколение на поколение – така се раждат seo митовете.

Събрах 5 от най-популярните факти, погрешни схващания, препоръки или както искате ги наречете. Което повечето оптимизатори използват или тълкуват погрешно.

1) 404 или 410 отговор на сървъра

Много използват за премахване на страници от индекса - 404 отговор на сървъра. Правилно е да се използва отговор на сървъра 410. Той съобщава, че ресурсът е изтрит завинаги. По този начин ненужната страница ще излети от индекса по-бързо.

2) Точното появяване на ключовата дума в заглавието и текста

Това е един от основните принципи, които следват почти всички оптимизатори - за да сте в топ, трябва да имате точното срещане на ключовата дума в заглавието или текста на страницата.

Нека да разгледаме изследването, проведено от NetPeak.

Отнети са около 13 000 ВЧ и СЧ ключа. На тях пробихме топ 10. И разгледахме колко от тях страници имат точното появяване на ключа в заглавието или текста.

Ето числата, които се появиха:

60% от сайтовете изобщо нямат точно съвпадение

28% имат точно съвпадение в заглавието

12% точно съвпадение само в текста

Оттук и заключението, че точното възникване не е необходимо.

3) robots.txt и забрана за индексиране

Направих експеримент. Създаден е сайт с robots.txt на изцяло нов домейн, в който е регистрирана забрана за индексиране на сайта "Dissalow: /". В рамките на един месец купих трафик за него в големи количества, в резултат на което сайтът беше индексиран в Yandex.

И ето още един пример за това как Google "поставя" тази забрана:

Следователно файлът robots.txt има препоръчителен характер. АкоАко искате да затворите сайта или неговите страници от индексиране, по-добре е да използвате мета тагове.

Рядко някой проверява, но често се случва, особено при самостоятелно написани машини, страницата http://site.ru/robots.txt да не връща отговор на сървъра 200.

Изглежда, защо трябва да проверяваме това, ако е ясно, че robots.txt не работи. Работи, но когато са изложени на силни поведенчески или връзки фактори, търсачките не винаги го следват.

4) rel=nofollow и вътрешни връзки

Преди много време чрез затваряне на вътрешни връзки на сайт с rel="nofollow" беше възможно да се контролира теглото на страниците. Мнозина са злоупотребявали с това и затова Google реши да направи това - тежестта от страницата изчезва, но не се прехвърля.

Така че за вътрешни връзки е най-добре да не използвате rel="nofollow".