Миналата седмица Държавният департамент на САЩ очерта нова визия за разработване, тестване и проверка на военни системи – включително оръжия, – които използват AI.
Политическата декларация за отговорна военна употреба на изкуствен интелект и автономия представлява опит на САЩ да ръководи развитието на военния AI в решаващ момент за технологията. Документът не обвързва правно американската армия, но надеждата е, че съюзническите нации ще се съгласят с неговите принципи, създавайки един вид глобален стандарт за отговорно изграждане на AI системи.
Наред с други неща в декларацията се посочва, че военният AI трябва да бъде разработен в съответствие с международните закони, че нациите трябва да бъдат прозрачни относно принципите, залегнали в основата на техните технологии, и че се прилагат високи стандарти за проверка на ефективността на системите за AI. Документът също така казва, че хората сами трябва да вземат решения относно използването на ядрени оръжия.
Що се отнася до автономните оръжейни системи, военните лидери на САЩ често са уверявали, че човек ще остане „в течение“ за решения относно използването на смъртоносна сила. Но официалната политика, издадена за първи път от Пентагона през 2012 г. и актуализирана тази година, не изисква това да е така.
Опитите за създаване на международна забрана на автономните оръжия засега са се провалили. Международният червен кръст и групите за кампании като Stop Killer Robots настояваха за споразумение в ООН, но някои големи сили – САЩ, Русия, Израел, Южна Корея и Австралия – доказаха, че не желаят да се ангажират.
Една от причините е, че мнозина в Пентагона виждат увеличеното използване на AI в армията, включително извън системите, които не са оръжия, като жизненоважно и неизбежно. Те твърдят, че забраната би забавила напредъка на САЩ и би попречила на технологията им спрямо противници като Китай и Русия. Войната в Украйна показа колко бързо автономията под формата на евтини дронове за еднократна употреба, които стават все по-способни благодарение на алгоритмите за машинно обучение, които им помагат да възприемат и действат, може да помогне за осигуряване на предимство в конфликт.
Наскоро стана ясно, че бившия главен изпълнителен директор на Google Ерик Шмид работи усилено за внедряването на AI от Пентагона, за да гарантира, че САЩ няма да изостанат от Китай.
Лорън Кан, научен сътрудник в Съвета за международни отношения, приветства новата декларация на САЩ като потенциален градивен елемент за по-отговорно използване на военния AI по света.
Няколко нации вече разполагат с оръжия, които работят без пряк човешки контрол при ограничени обстоятелства, като противоракетна отбрана, която трябва да реагира със свръхчовешка скорост, за да бъде ефективна. По-широкото използване на AI може да означава повече сценарии, при които системите действат автономно, например когато дронове работят извън комуникационния обхват или в рояци, които са твърде сложни, за да бъдат управлявани от всеки човек.
Някои прокламации относно необходимостта от AI в оръжията, особено от компании, разработващи технологията, все още изглеждат малко пресилени. Има съобщения за напълно автономни оръжия, използвани в скорошни конфликти и за AI, подпомагащ насочени военни удари, но те не са проверени и всъщност много войници може да са предпазливи към системи, които разчитат на алгоритми, които далеч не са безпогрешни.
И все пак, ако автономните оръжия не могат да бъдат забранени, тогава тяхното развитие ще продължи. Това ще направи жизненоважно да се гарантира, че участващият AI се държи според очакванията – дори ако технологията, необходима за пълно изпълнение на намерения като тези в новата декларация на САЩ, все още не е усъвършенствана.
Снимка: Unsplash
Виж още: Световни лидери решават дали роботите убийци в армията са допустими