Ти аз всичко останало „Изкуственият интелект на Фейсбук“ говореше на свой собствен език“
Споделете в социалните мрежи:
Като част от експеримента изследователите създадоха няколко симулации в опит да научат ботовете да преговарят и да споделят помежду си различни предмети, които са с определена стойност за всеки от тях (необходимо е да се определи стойността на предмета по време на разговора). Авторите измислиха много сценарии (комплектът от две книги, шапка и три топки беше използван като основа), но винаги се оказваше, че два бота не могат да „избият“ най-добрата сделка за себе си едновременно. Опит за излизане от преговори или оттегляне от сделка след 10 кръга на диалог беше счетен за провал. В същото време практиката на преговори беше призната за необходима и резултатите от тях бяха важни по отношение на подобряването на работата на ИИ.
След това изследователите направиха промени, за да направят тези разговори продуктивни. За да направи това, FAIR позволи на ботовете да изградят дългосрочна стратегия и да предскажат накъде ще отиде диалогът. Това беше необходимо, за да се избегнат безизходици. FAIR призна, че идеята не е нова и е била използвана преди в игралната индустрия, но е използвана за първи път в лингвистиката.
1 - изречено изречение "Вземете книгата, а аз ще взема всичко останало", 2 - възможни отговори "Да" и "Не, трябват ми и трите", 3 - допълнителни опции за диалог, 4 - възможен краен резултат в точки.
Авторите са обучили невронна мрежа върху колекция от диалози между хора. Тогава решили да тестват ботовете в разговор с реални събеседници. В резултат на това много от участниците в експеримента сбъркаха ботовете с реални хора. По същество се доказа, че „роботите“ могат да говорят и мислят свободно на английски. В същото време изкуственият интелект постигна най-добрите резултати от транзакциите по същия начин.често като най-лошото, тоест като в реалния живот.
Програмата беше обучена да произвежда „езика, който хората говорят“, вместо да развива свой собствен, и това беше грешката, която доведе до новини със страх за бъдещето на човечеството поради извън контрол AI.
Тази грешка се прояви, когато ботовете бяха оставени „сами“, за да развият допълнително комуникационните си умения. С течение на времето ботовете се отклониха от предписаните в сценария правила и започнаха да комуникират в „абракадабра“, създадена без човешка намеса. С по-удобна и по-бърза форма на комуникация за AI, правилата на английския език бяха пропуснати доколкото е възможно, а конструкциите бяха повторени многократно. Ето фрагмент от диалога по-долу:
Боб: Мога и всичко останало.
Алиса: Топките имат нула за мен за мен за мен за мен за мен за мен за мен за мен за"
Боб: Ти и всичко останало.
Алис: Топките имат топка за мен за мен за мен за мен за мен за мен за мен.
Боб: Мога, аз, всичко останало.
Алис: Топките имат топка за мен за мен за мен за мен за мен за мен за мен.
Алиса: Топките имат нула за мен за мен за мен за мен за мен за мен за мен за мен за мен за.
Боб: Ти аз аз аз аз всичко останало.
Алис: Топките имат 0 за мен за мен за мен за мен за мен за мен за мен за мен за.
Боб: Ти аз аз аз всичко останало.
Алис: Топките имат 0 за мен за мен за мен за мен за мен за мен за мен за мен за.
Диалог на Facebook чатбот
Такъв инцидент се случи изобщо не защото роботите вече започват да превземат света, а поради грешка в програмирането. По-конкретно, ботовете просто не са получили задачата да се придържат към правилата на английската граматика и словообразуване.език, така че те започнаха да се състезават в постигането на максимална ефективност в комуникацията.
След като откриха проблема, изследователите на FAIR незабавно изключиха системата и промениха кода, така че алгоритъмът да позволява комуникация само на разбираем за хора английски език.
Страховете на мнозина в този случай обаче също могат да бъдат разбрани. Ако ботовете наистина измислят "своя" език за комуникация, ще бъде невъзможно да ги разберете. Както беше отбелязано в FAIR, също така няма двуезични хора, които биха разбирали едновременно AI и човешки езици.