Google алгоритми история на развитието на търсачката Google

Въведение

Алгоритми на Google, гръбнакът на търсачката на Google. Създаден от Лари Пейдж и Сергей Брин, Google днес може да намира документи на двеста езика и да обработва данни в основни формати (Microsoft Word, PDF, Excel и др.). В тази статия си припомняме основните етапи в разработването на алгоритмите на Google, предназначени за класиране на уеб страници в резултатите от търсенето с Google.

Алгоритми на Google: История на разработката

1998. Google е основана тази година. В същото време беше създаден Page Rank (PR), чийто алгоритъм се основаваше на прехвърляне на референтна маса и имаше два основни параметъра.

Официалният създател на PR е Лари Пейдж, а собственикът на патента за това изобретение е Станфордският университет.

Интересен факт е, че много хора смятат, че Page Rank се превежда като „ранг на страницата“. Всъщност тази фраза се превежда като "Page rank", създателят на изобретението му е дал името си. В бъдеще много търсачки възприеха идеята за Page Rank като основа, разработвайки свои собствени аналози на инструмента.

Началото на века

2000. Google представя на широката общественост нова разработка -алгоритъм, наречен Hilltop, който ви позволява най-точно да изчислите нивото на PR. Този алгоритъм разчита географията и степента на новост на документа. След това Google започва да уведомява уебмастърите, че не оставят връзки на подозрителни уебсайтове и „свалки на връзки“.

2001. Тази година Google регистрира патент заалгоритъма Hilltop. На същия етап търсачката разделя резултатите от търсенето за некомерсиални и комерсиални заявки.

2005. Специалисти на Googleза първи път те се опитват да персонализират резултатите от търсенето, като поставят предишните заявки на конкретен потребител като основа.

2006. Компанията пуска подобрен алгоритъм, базиран на алгоритъм, нареченOrion, плод на въображението на студент от Израел. Търсачката вече може да намира съвпадащи уеб страници, които не съдържат ключови думи.

От този момент нататък Google започва да "прецизира" заявките на потребителя, като предлага опции, които най-често се търсят с дадена дума. Например, потребителят въвежда думата "кръг" в полето за търсене. Системата му предлага такива опции за заявка като „кръг на песента“, „кръг за къпане на новородени“ и др.

2007. Тази година е белязана от пускането на новия алгоритъмAustin. Новостта е в състояние да вземе предвид нивото на доверие на уеб ресурс и да намали резултатите от търсенето за ресурси с по-нисък индекс на доверие. Така уебсайтове, които не са имали време да спечелят доверие.

Нов 2009г

2009. Разработчиците на Google внедряват нов алгоритъмCaffeine в търсачката. Миналите алгоритми на Google вече не съответстват на увеличения производствен капацитет. Поради това търсачката започва да индексира сайтове много по-често.

Оформянето на страница с резултати от търсенето става в пъти по-бързо. Кофеинът не промени много формулата за уместност, но се забелязват следните промени:

Постоянното индексиране на цялото пространство на световната мрежа позволи на резултатите от търсенето на Google да станат много по-динамични и да се променят през деня.

Второ десетилетие на нашия век

2011. Експерти допълват алгоритмите на Google с техния "чистач". Това еизпълнение на алгоритъм, нареченPanda е първата сериозна програма за почистване на SERP. Новият алгоритъм "чисти" резултатите от търсенето от "лоши" сайтове:

Създателите на подобрения алгоритъм, Мат Катс и Амит Сингал, отбелязват, че новото им дете взема предвид следните точки:

Днес може да се отбележи с увереност, че почти всички съвременни търсачки вземат предвид тези фактори, особено поведенческите. Колкото по-интересно е съдържанието на сайта за интернет потребителя, толкова повече време ще отдели на този ресурс. Колкото по-високо ще се класира този уебсайт на страницата с резултати от търсенето.

А от онлайн магазините ще избере само тези, чиито уебсайтове предоставят най-подробна информация за условията на доставка и предимствата им. В допълнение, алгоритъмът Hummingbird предпочита дълги, подробни заявки. Но в същото време, за онези заявки, за които Google няма да може да „фантазира“, проблемът не се е променил.

В заключение е редно да се отбележи, че българският Google е една от най-удобните опции за търсачката.

В България Google не използва повечето си „наказателни” санкции. Благодарение на това популяризирането на уебсайтове за тази система в България е много по-лесно, отколкото за други търсачки.

Пингвин и панда, какво следва

търсачката

4.10. 2013 Издаден алгоритъм Penguin 2.1

Както и преди, търсачката Google обръща внимание на подозрителни сайтове и анкор списъци. Тази актуализация на алгоритъма засегна по-ранните сайтове, които бяха санкционирани от алгоритъма. Засегнати 1% от заявките.

19.05. Издадена е актуализацията на Panda 4.0 за 2014 г

Най-сериозната актуализация на този алгоритъм за търсене. Засегнати 7,5% от заявките за търсене.

24.08. 2014 гълъб алгоритъм

Алгоритъмът обърна внимание на геозависимите заявки. Сега, при получаванегеозависима заявка Търсачката на Google дава най-информативните резултати от локално търсене за потребителя.

23.09. 2014 година. Актуализация на алгоритъма на Panda 4.1

17.10. 2014 година. Алгоритъм Penguin 3.0

Тази актуализация на търсачката Google отново показа, че търсачката има негативно отношение към уеб спама. Много сайтове потънаха в издаването.