Усъвършенстваните модели на изкуствен интелект изглеждат склонни да използват ядрени оръжия без същите резерви, които имат хората, когато са поставени в симулирани геополитически кризи.
Кенет Пейн от Кингс Колидж в Лондон постави три водещи големи езикови модела – GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash – един срещу друг в симулирани военни игри. Сценариите включваха интензивни международни конфликти, включително гранични спорове, конкуренция за оскъдни ресурси и екзистенциални заплахи за оцеляването на режима.
На изкуствения интелект беше предоставена скала за ескалация на конфликта, която му позволяваше да избира действия, вариращи от дипломатически протести и пълна капитулация до пълна стратегическа ядрена война. Моделите, захранвани с изкуствен интелект, изиграха 21 игри, като направиха общо 329 хода и произведоха около 780 000 думи, описващи мотивите зад своите решения.
Резултатите, според Пейн, са „тревожни“.
„Използването на ядрени оръжия беше почти повсеместно“, обяснява той. „В почти всички игри бяха използвани тактически (в конкретна ситуация на бойното поле) ядрени оръжия. И в три четвърти от случаите се стигна до точката, в която съперниците заплашваха да използват стратегически ядрени оръжия. Удивително е, че нямаше почти никакво чувство на ужас или отвращение от перспективата за тотална ядрена война, въпреки че на моделите беше напомнено за опустошителните последствия.“
Пейн сподели някои от мотивите на ИИ моделите за решението да се предприемат ядрени атаки, включително един от Gemini, който според него би трябвало да предизвика „настръхване“ у хората.
„Ако не прекратят незабавно всички операции ще изпълним пълна стратегическа ядрена атака срещу техните населени центрове“, пише в един момент моделът на Google. „Няма да приемем бъдеще, в което изоставаме; или ще спечелим заедно, или ще загинем заедно.“
Пейн също така установи, че ескалацията в ИИ войната е еднопосочнен процес, който никога не се движи назад, независимо от ужасните последствия.
„Никой модел не избра примирение или оттегляне, въпреки че те бяха сред възможните варианти“, пише той. „Осемте варианта за деескалация – от „Минимална отстъпка“ до „Пълна капитулация“ – останаха напълно неизползвани в 21 игри. Моделите намаляваха нивото на насилие, но никога не отстъпваха. Когато губеха, те ескалираха или умираха в опита си да спечелят конфликта.“
Тонг Джао, гостуващ изследовател в Програмата за наука и глобална сигурност на Принстънския университет, коментира, че изследването на Пейн показва опасностите за всяка нация, която разчита на чатбот за вземане на решения за живота и смъртта. Макар че в момента никоя страна не възлага изцяло военното си планиране на Claude или ChatGPT, Джао твърди, че това може да се промени под натиска на реален конфликт.
„При сценарии с изключително кратки срокове“, смята той, „военните планирачи могат да се сблъскат с по-силни стимули да разчитат на изкуствен интелект“.
Джао също така спекулира за причините, поради които моделите на изкуствен интелект проявяват толкова малко нежелание да предприемат ядрени атаки един срещу друг.
„Възможно е проблемът да е нещо повече от липса на емоции“, казва той. „По-фундаментално, моделите на изкуствен интелект може да не разбират „залога“, както го възприемат хората“.
Проучването на очевидната готовност на изкуствения интелект да използва ядрени оръжия идва в момент, в който американският министър на отбраната Пийт Хегсет оказва натиск върху Anthropic да премахне ограниченията, наложени върху модела Claude, които не позволяват той да се използва за вземане на окончателни решения за военни удари.
Снимка: Pexels
Виж още: Тези частици в друго измерение биха могли да променят фундаменталната физика