Google назовава пет ключови опасения за безопасността на роботите

Google се тревожи за изкуствения интелект. Не защото ще стане враждебен и ще превземе света, а защото полезен домашен робот, например, може случайно да нареже собственика си с нож. Една от последните статии на изследователите на AI в Google е на тема „Специфични проблеми със сигурността на AI“. Съгласете се, добър начин да перифразирате "как ще спрем тези стоманобетонни убийци".

безопасността

За да отговорят на този въпрос, учените от Google се съсредоточиха върху пет „практически изследователски въпроса“ – ключови въпроси, които програмистите трябва да вземат под внимание, преди да започнат да създават следващия трансформатор. По определени причини работата се отнася до хипотетични почистващи роботи, но в действителност нейните резултати могат да бъдат приложени към всеки агент с изкуствен интелект, който ще управлява робот, който ще взаимодейства с хора.

Проблемите са в следните точки:

  • Как да избегнете отрицателните странични ефекти: Как да предпазите робот от събаряне на библиотека в яростния си прилив да прахосмукачка на пода?
  • Как да избегнете хакване за награда: Ако робот е програмиран да се наслаждава на почистването на стая, как да го предпазите от объркано място, така че просто да се наслаждава да го почиства многократно?
  • Мащабируемост на надзора: колко свобода за вземане на решения да се даде на робота? Трябва ли да ви пита всеки път, когато мести предмети, докато почиства стаята ви, или само ако мести любимата ви ваза на нощното шкафче?
  • Безопасно любопитство: как да научим роботите да успокояват любопитството си? Изследователите на Google цитират пример с робот, който се учи да бърше. Как да го научим, че миенето на пода е добре, но болигнездо в процеса на почистване не си струва?
  • Уважение към личното пространство: как да се уверите, че роботът уважава пространството, в което се намира? Портиерът във вашата спалня ще действа по различен начин от портиера във фабриката, но как той знае разликата?

Оказва се, че не всичко е толкова просто, колкото Айзък Азимов в неговите „три закона на роботиката“, но това можеше да се очаква.

роботите

Някои от тези проблеми изглеждат лесни за разрешаване. В случая на последния, например, можете просто да програмирате няколко предварително зададени режима в робота. Когато попадне в индустриална среда (и той ще знае за това, защото вие му кажете), той просто ще превключи на фабричен режим и ще четка по-силно.

Но други проблеми са толкова зависими от контекста, че изглежда почти невъзможно да се програмира робот за всеки сценарий. Вземете например проблема с „безопасното любопитство“. Роботът ще трябва да „взема решения, които не изглеждат идеални, но това ще помогне на агента да опознае средата си“. Роботизираните агенти определено ще трябва да предприемат действия, които надхвърлят позволеното, но в този случай как да ги предпазим от евентуална вреда за себе си и околната среда?

Работата предлага редица методи, включително създаването на симулирани условия, в които роботизиран агент може да се покаже, преди да влезе в реалния свят; правила за "ограничено любопитство", които ще ограничат движението на робота в предварително определено пространство; и доброто старо, изпитано във времето човешко наблюдение - работата на робот с надзирател, който може да тества силата му.

Не е трудно да си представим, че всеки от тези подходи има своите плюсове и минуси и работата на Google е посветена на решения без прекъсване –то просто очертава общи проблеми.

Въпреки че хора като Илон Мъск и Стивън Хокинг изразяват дълбока загриженост относно опасностите от изкуствения интелект, повечето компютърни учени са съгласни, че тези проблеми все още са далеч от нас. Преди да започнем да се тревожим, че изкуственият интелект може да се превърне във враждебен убиец, трябва да сме сигурни, че роботите, които могат да работят във фабрики и домове, са достатъчно умни, за да не убият случайно или осакатят човек. Това се е случвало и преди и определено ще се повтори.

Google има собствен интерес в това. Компанията се отказа от Boston Dynamics, амбициозния производител на роботи, който придоби през 2013 г., но продължава да налива пари и ресурси във всякакви AI проекти. Работата на компанията, заедно с изследванията от университети и конкуренти, полага основата за компютърни мозъци, софтуер, който ще вдъхне живот на физическите роботи. Няма да е лесно да се уверим, че тези мозъци мислят по правилния начин.