Група технологични лидери, включително Илон Мъск и тримата съоснователи на дъщерното дружество за AI DeepMind на Google, са подписали обещание да не разработват "смъртоносни автономни оръжия".
Това е последният ход на неофициалната и глобална коалиция от изследователи и ръководители, която се противопоставя на разпространението на такава технология. "Обетът" предупреждава, че оръжейни системи, които използват AI, за да "избират" и да "заемат" цели без човешка намеса, представляват морални и прагматични заплахи. Морално поддръжниците на AI опозицията твърдят, че решението да се отнеме човешки живот "никога не трябва да се делегира на машина". На прагматичния фронт те казват, че разпространението на такова оръжие ще бъде "дестабилизиращо за всяка страна и индивид".
Призивът беше публикуван днес на Международната съвместна конференция за изкуствен интелект (IJCAI) в Стокхолм и беше организирана от Института за бъдещето на живота, изследователски институт, чиято цел е да "смекчи екзистенциалния риск" на човечеството. Институтът вече е помогнал за издаването на няколко подобни обещания от някои от същите лица, призовавайки ООН да обмисли нови правила за това, което е известно като "смъртоносно автономно оръжие", или lethal autonomous weapons (LAWS). Това обаче е първият път, когато участниците обещаха индивидуално да не развиват такава технология.
Сред подписалите са шефът на SpaceX и Tesla Мъск; тримата съоснователи на дъщерното дружество DeepMind на Google, Шейн Лег, Мустафа Сюлейман и Демис Хасабис; основателят на Skype Ян Талин и някои от най-уважаваните и изтъкнати изследователи на AI в света, включително Стюарт Ръсел, Йошуа Бенгио и Юрген Шмидхубер.
Според Макс Тегмарк, който е подписал призива и е професор по физика в МIТ, това показва, че AI лидерите "се ориентират от думи към действие". Тегмарк твърди, че този акт носи това, което политиците не са направили: налагане на строги ограничения върху развитието на AI за военна употреба.
"Оръжията, които автономно решават да убиват хората, са толкова отвратителни и дестабилизиращи, колкото и биологичните оръжия и трябва да бъдат третирани по същия начин", каза Тегмарк.
Досега опитите за набиране на подкрепа за международното регулиране на автономните оръжия са били неефективни. Кампанизаторите предложиха LAWS да бъдат предмет на ограничения, подобни на тези, наложени върху химическите оръжия и противопехотните мини. Но имайте предвид, че все още е невероятно трудно да се направи разграничение между това, което прави и не автономна система. Например автоматична стрелкова система може единствено да бележи целите, а човекът да решава дали да стреля.