Защо Бил Гейтс (и вие) не трябва да се страхувате от изкуственото

Миналата седмица Бил Гейтс получи интересен въпрос от един от потребителите по време на сесия с въпроси и отговори в Reddit: „Каква заплаха за оцеляването на човечеството представлява машинният суперинтелект и мислите ли

трябва
Миналата седмица Бил Гейтс получи интересен въпрос от потребител по време на сесия с въпроси и отговори на Reddit: „Каква е заплахата за оцеляването на човечеството от машинния суперинтелект и мислите ли, че пълното криптиране на цялата дейност в Интернет може да ни защити от тази заплаха (т.е. колкото по-малко машини знаят, толкова по-добре?“).

За съжаление, Гейтс не отговори на втората част от въпроса, но написа следното:

„Аз съм сред хората, които се притесняват от свръхинтелигентността. Отначало машините ще вършат много работа вместо нас и няма да са много интелигентни. Ще бъде добре, ако ги управляваме умело. След няколко десетилетия тази интелигентност ще бъде достатъчно мощна, за да се превърне в проблем. Съгласен съм с Илон Мъск и други по този въпрос и не разбирам защо хората не се притесняват."

За щастие на робофобите най-добрият екип от антигерои е почти завършен. Илон Мъск и Бил Гейтс са пари и влияние, легендарният космолог Стивън Хокинг е изключително важна личност. Всичко, което им липсва, са ръце, които ще бъдат способни на мръсни дела срещу машини в тази превантивна война.

Всъщност тези зараждащи се Отмъстители се нуждаят от нещо още по-далновидно: всяка индикация, че изкуственият суперинтелект ще бъде сериозна заплаха, или по-сериозно изследване.

На фона на нарастващата истерия около несъществуващия изкуствен интелект обаче има сериозни недоумения. Експертите не го правятне виждам намек за гигантски тираничен изкуствен интелект в съвременния код. Може би Гейтс, Хокинг и Мъск са адски умни и знаят нещо, което ние не знаем. Но можете също да слушате водещите изследователи на този изкуствен интелект.

Когато хората говорят за невронни мрежи, когнитивни изчисления и общото понятие за изкуствен интелект, който трябва да надмине човешкия интелект, те също говорят за машинно обучение и дълбоко обучение. Ако някой знае, че е време за паника, това са тези момчета.

Изкуственият суперинтелект не идва от нищото

Ето Дилип Джордж, съосновател на стартъпа за изкуствен интелект Vicarious, който обсъжда рисковете от суперинтелигентността:

„Историята помни много паники около различни технологии, от парната машина до ядрената енергия и биотехнологиите. Ще продадете повече вестници и билети за кино, ако играете на истерия, а сега според мен се случва същото: хората разпалват страхове около изкуствения интелект. Като учени трябва да образоваме обществеността за разликата между Холивуд и реалността. Общността на AI дори не е на прага да създаде нещо подобно, за което да се тревожи.

Тази гледна точка на Vicarious има тежест не само поради текущата работа на компанията върху изкуствения интелект, но и защото Илон Мъск представи стартъпа като част от своя поглед зад завесата. Мъск каза пред CNBC, че е инвестирал във Vicarious „не за да възстанови инвестицията, а за да може да следи изкуствения интелект“. Той също така написа, че „водещите AI компании предприемат сериозни стъпки за осигуряване на сигурност. Те осъзнават опасността, че вярват, че могат да оформят и контролират цифровия суперинтелект ипопречи му да избяга в интернет. Да видим…".

На въпрос от Vicarious колко време и ресурси отделят за защита срещу изкуствен интелект, Скот Финикс, друг съосновател на Vicarious, отговори:

„Изкуственият интелект не се появява случайно или внезапно. Ние сме в самото начало на изследване за това как изобщо да изградим базова разузнавателна система и все още има дълъг процес на повторение и изучаване на такава система, научаване как да я изградим и как да я защитим.

Vicarious не се занимава със суперинтелигентност. Дори не е на радара. Кои са тогава компаниите, за които говори Мъск и за кои е сериозно притеснен, според собствените му думи, така че лошият суперинтелект да не „избяга в Интернет“? Как, според собствените му думи, да се построи затвор за демон, когато няма самите демони?

На въпрос как компаниите активно държат ИИ под ключ, Ян Лекун, директор на изследванията на ИИ във Facebook, отговори:

„Някои хора се чудят как да попречат на хипотетичен суперинтелигентен доброжелателен изкуствен интелект да реши да се „препрограмира“ и да гарантира, че цялото човечество ще бъде избито. Повечето от тези хора самите не са изследователи на ИИ, дори не са програмисти.

LeCun също така посочва един източник на объркване: разликата между интелигентност и автономност.

„Да приемем, че имате привидно суперинтелигентна система, която няма автономност. Например програма за шах, която може да победи почти всеки човек. Тя има ли супер интелигентност? Много скоро автопилотите на самолетите и самоуправляващите се коли ще бъдат по-надеждни от хората. Това означава ли, че ще бъдат по-умни от хората? В много тесен смисъл, тези системи ще бъдат "по-умни" от хората, нотехният опит ще лежи в много тясна област и системите ще имат много малка автономност. Те не могат да надхвърлят правилата."

Това е важно разграничение и то добре описва паниката, на която Мъск, Хокинг и сега Гейтс са се поддали. AI може да бъде умен, без да е интелигентен и креативен. По-важното е, че AI не се ръководи от някакъв цифров еквивалент на биологичен еволюционен път, конкуриращ се и възпроизвеждайки се все по-добре и по-добре с всяка мутация, докато достигне необуздана суперинтелигентност. Не, AI не работи така.

Ще бъдем изненадани от машина с интелекта на мишка, но това няма да се случи скоро

Алгоритъмът за търсене дава резултати по-бързо от всеки човек, но никога няма да развие етичен кодекс и няма да скрие порнография по свой вкус и цвят. Само писател на научна фантастика или друг хуманист, който не познава компютъра, може да си представи изкуствен интелект на човешко ниво, който изниква от нищото по внезапен и неразбираем начин. И ако вече вярвате в едно чудо, защо не добавите друго, да речем, самосглобен суперинтелект?

„Илон е много притеснен от екзистенциалните заплахи за човечеството (затова той изгражда ракети, които могат да изпращат хора да колонизират други планети). Дори рискът от въстание на изкуствения интелект да е незначителен и илюзорен, трябва да помислим за него, да изградим превантивна защита и да следваме строго определени правила. Точно както биоетичните ограничения бяха определени през 70-те и 80-те години, преди генното инженерство да се използва навсякъде, трябва да създадем ограничения върху етиката на изкуствения интелект. Но, както правилно казва Йошуа, имаме достатъчно време. Нашите системи превъзхождат хората в много тесни области, но ИИ на общо човешко ниво вероятно няма да се появи скорослед няколко десетилетия, да не говорим за автономен общ ИИ, който може никога да не бъде изграден.“

Ученият, който имаше какво да каже по темата, беше споменат в предишния параграф. Йошуа Бенгион е ръководител на лабораторията за машинно обучение в университета в Монреал и един от пионерите в подполето на дълбокото обучение (заедно с LeCun). Ето неговото мнение за опасностите от изследванията на ИИ:

„Няма истина в тази гледна точка, когато се разглежда в контекста на текущите изследвания на ИИ. Повечето хора не осъзнават колко примитивни са системите, които изграждаме, и за съжаление много журналисти (и някои учени) разпространяват страхове относно ИИ, които са напълно неверни. Бихме били луди, ако можем да построим машина с интелигентността на мишка в близко бъдеще, но сме далеч от това, много далеч. Да, тези алгоритми вече имат полезни приложения и ще има още в бъдеще. Нещо повече, аз наистина вярвам, че хората един ден ще създадат машини, които ще бъдат толкова умни, колкото хората в много отношения. Това обаче ще бъде в далечното бъдеще, така че настоящият дебат е загуба на време. Когато проблемът стане спешен, разбира се, ще съберем учени, философи и юристи, за да определим най-добрите начини за предотвратяване на последствията, които в момента принадлежат на научната фантастика.

Запитан дали суперинтелигентността е неизбежна, Бенджио отговори:

„Доста трудно е да се отговори на този въпрос, като се отхвърли цялата строгост на научното разбиране. Виждам много добри математически и изчислителни причини, поради които изследванията на ИИ един ден ще стигнат до задънената улица (поради експоненциален растеж на сложността), както човешкият интелект някога е направил - което основно обяснява защо делфините и слоновете, макар и различниголемите мозъци не са свръхинтелигентни. Ние просто не знаем достатъчно, за да отидем по-далеч от спекулациите по този въпрос. Ако тази безизходна хипотеза е вярна, един ден ще имаме компютри, които са умни като хората, но имат по-бърз достъп до знания. Но дотогава хората също могат да придобият този достъп до информация (по принцип вече го правим, но бавно - чрез алгоритми за търсене). Разбира се, това няма нищо общо със свръхинтелигентността. Мисля за AI като помощ за ума, подобно на това, както индустриалната революция беше помощ за ръцете през последните два века.

Що се отнася до забележката на Мъск, че ИИ е „потенциално по-опасен от ядрените оръжия“ и трябва да се борави внимателно с него, Бенджио се обръща към настоящето, без да рита вратата към неизвестно бъдеще:

„Засега този въпрос няма смисъл. В бъдеще всичко може да се промени, но засега гадаем по утайката от кафе. Когато стигнем там, разбира се, ще помислим сериозно.”

Често срещан лайтмотив в дискусиите е времето. Когато говорите с изследователи на AI - отново конкретно изследователи на AI, хората, които работят с тези системи - те всъщност не се интересуват, че суперинтелигентността се промъква към тях (глупаци, бягайте!). За разлика от историите на ужасите, които Мъск е чел, изследователите на AI като цяло дори не смеят да обсъждат суперинтелигентността, тя дори не съществува в плановете. Прав ли е Бил Гейтс?