Как когнитивните компютри и облаците решават предизвикателствата при анализа на големи данни
Повече от 500 милиона туита и 55 милиона публикации във Facebook се генерират всеки ден в света. Само в Ню Йорк сензорите и камерите за наблюдение генерират повече от 520 TB данни на ден. Всяко модерно поле в нефтената и газовата индустрия с около 80 000 сензора генерира средно 15 PB данни през целия си живот. И това е само капка в съвременното информационно цунами.
Хората постепенно се научават да съхраняват и разпространяват всички тези данни. Постигнат е известен напредък благодарение на напредъка в развитието на облачните технологии. Постиженията в областта на полезното използване на огромни масиви от данни и техния ефективен анализ са по-малко забележими. Трудността се състои във факта, че около 80% от цялата информация, генерирана днес, няма структура. Освен това, според прогнозите, количеството неструктурирани данни в общия поток от нова информация ще достигне повече от 93% до 2020 г.
Според IBM Research ежедневно се появяват около 2,5 квинтилиона (милион трилиона, 18-цифрено число) нова информация. Около 90% от цялата информация в света се появи през последните две години. При общо световно население от 7,3 милиарда, всеки човек има приблизително 1,7 MB данни, създадени всяка минута.
Астрофизиците често използват определението за така наречената "тъмна материя" в своите теории. Тази материя не може да се види или да се определят нейните истински граници, но в същото време тя доказва своето съществуване и присъствие чрез гравитационно въздействие. Абсолютно същата ситуация се развива днес с огромни масиви от натрупани данни. По-голямата част от информацията, събрана от човечеството днес, напълно попада под определението „тъмни данни“. Броят на решенията, които генерират данни, устройства и системи, които съхраняват тези данни, надхвърля всичкимислими граници. Разнообразието от формати за запис и представяне води до загуба на смисъл на тези данни, до факта, че огромни масиви от ценна информация по същество се превръщат в натрупване на безполезен цифров шум.
Изкуствен интелект
Всички опити за изграждане на система за анализ на данни, базирана на принципа на футуристичен „Мегаум“, където изкуственият интелект е човешки интелект, мащабиран няколко пъти, очевидно са обречени на провал. Ефективната работа с огромни масиви от неструктурирана информация е възможна само с участието на изкуствен интелект, базиран на когнитивни изчисления.
Когнитивните изчисления само частично повтарят характеристиките на човешкия мозък, главно в областта на обработката и структурирането на входящата информация. В допълнение, когнитивните технологии използват принципите на задълбочено машинно обучение, сравняват различни данни и правила, прилагат собствения си опит и опит на трети страни, разработват нови правила и алгоритми за работа с данни директно в процеса на изчисление.
Човешкият интелект има редица предимства, които все още не са надминати от машина, като интуиция, чувство за вкус, ценностна преценка и здрав разум. Машините, от друга страна, имат „перфектна памет“, могат да извършват бързо съпоставяне и проверка на факти, програмирани са за задълбочено обучение и в допълнение извършват незабавно мащабни математически изчисления.
Техническо изпълнение
Когнитивните изчислителни системи са проектирани да не противопоставят машинния и човешкия интелект и да не заменят хората, а да сближават хората и машините. Изкуствен интелект, способен да обработва ефективнонеструктурирани данни, трябва да се научат да разпознават визуални модели и да разбират човешката реч.
По дефиниция една когнитивна изчислителна система трябва да има изключително висока производителност. За да имат такива изчисления истинска практическа стойност, резултатите трябва да се появят със светкавична скорост. Поради тази причина всички компоненти на когнитивната ИТ инфраструктура, включително модули за изкуствен интелект, системи за съхранение, API, софтуер, услуги и много други, трябва да бъдат възможно най-бързи и да гарантират минимални забавяния при прехвърляне на данни между тях.
ИТ инфраструктурата за когнитивни изчисления, която гарантира резултатите от обработката на неструктурирани данни за няколко милисекунди, е изградена върху транзакционни аналитични сървъри, използвайки хардуерни ускорители и най-модерните системи за съхранение на данни, базирани на флаш технологии.
Използването на отворени архитектури и отворени екосистеми за когнитивни изчисления позволява бързи надстройки, като същевременно поддържа постоянно високо ниво на конкурентоспособност. Списъкът с приемливи отворени екосистеми, в зависимост от нуждите на предприятието, може да включва Blockchain, Docker, Linux, OpenPower и други.
Оптимално подбраната корпоративна ИТ инфраструктура за високопроизводителни когнитивни изчисления напоследък все повече се свързва с хибридни облачни платформи. Преминаването от традиционния възглед за ИТ като съвкупност от сървъри и системи за съхранение към разпределени, софтуерно дефинирани и базирани на облак технологии с когнитивни натоварвания е до голяма степен правилната посока за инвестиране в бъдещето на предприятието.
Когнитивните технологии в действие
Пример за успешно развитие на универсаленкогнитивната система е IBM Watson. Тази система първоначално е проектирана да се мащабира във всеки формат и размер на съвременния бизнес, адаптирана към облачни технологии и успешно интегрирана с отворени екосистеми и системи за флаш съхранение на IBM FlashSystem. Разработчиците на IBM създадоха набор от услуги, които ви позволяват бързо да създадете своя собствена облачна когнитивна система Watson от нулата в предприятия, работещи в голямо разнообразие от области.
Подобни системи могат да се използват и в здравеопазването, където по предварителни оценки много скоро всеки пациент ще генерира повече от 1 милион GB информация за здравето си през целия си живот. За обработка на цялата тази информация с цел поставяне на правилна диагноза или превантивно лечение ще бъдат полезни когнитивни технологии като анализи и разпознаване на образи (ЯМР, рентгенови лъчи и др.) и машинно обучение. Watson вече може да анализира неструктурирани медицински данни през целия период на проследяване на пациента, предоставяйки препоръки за минути.
Поглед в бъдещето
Очаква се до 2020 г. около 75% от всички превозни средства в света да бъдат свързани към интернет, като всяко от тях ще може да генерира до 350 MB данни всяка секунда. Тук също не може да се мине без когнитивно изчисление, което позволява вземането на незабавни решения в реално време, като се вземе предвид многостранната информация за пътната обстановка и поведението на водачите, получена едновременно от много източници.
Сеизмологията на бъдещето ще бъде изцяло обвързана с обработката на огромни масиви от неструктурирана информация. Благодарение на анализа на тези данни ще бъде възможно да се предвидят потенциални щети от пробиването на следващи кладенци или да се предвидятземетресения с голяма точност.
Когнитивните системи могат да бъдат чудесно решение за индивидуално обучение. В предучилищна възраст класовите системи на IBM Watson могат да бъдат адаптирани за бързо разширяване на хоризонтите, разговорните умения, речниковия запас. В средното училище когнитивните системи ще помогнат за бързото асимилиране на различни образователни материали. Гимназията може да получи отлична помощ при задълбочено изучаване на различни дисциплини, като се вземе предвид индивидуалността на ученика.
Някога машините позволиха на човечеството да се отърве от рутинния физически труд. Тогава компютрите спасиха хората от рутинните изчисления. Следващият етап от развитието - широкото въвеждане на когнитивните изчисления - до известна степен може да се разглежда като избавление на човечеството от рутинните "груби" мисловни процеси.