Авангардните способности на изкуствения интелект за обработка на числа означават, че AI системите са в състояние да откриват болести рано, да управляват химични реакции и да обясняват някои от мистериите на Вселената. Но има и един недостатък на тази невероятна и практически неограничена изкуствена мозъчна сила.

Ново изследване подчертава колко лесно AI моделите могат да бъдат обучени както за добри цели, така и за съвсем злонамерени – в конкретния тест се представя дизайн на хипотетични агенти за биологично оръжие. Само за шест часа тестът със съществуващ изкуствен интелект идентифицира 40 000 химикали за биооръжия.

С други думи, докато AI може да бъде невероятно мощен – и много, много по-бърз от хората, – когато става въпрос за забелязване на химически комбинации и лекарствени съединения за подобряване на нашето здраве, същата сила може да се използва за измислянето на потенциално много опасни и смъртоносни вещества.

„Прекарахме десетилетия в използване на компютри и AI, за да подобрим човешкото здраве – а не да го влошим“, пишат изследователите в нов коментар.

„Бяхме наивни да мислим за потенциалната злоупотреба с нашите знания, тъй като нашата цел винаги е била да избягваме молекулярни характеристики, които биха могли да попречат на многото различни класове протеини, които са от съществено значение за човешкия живот.“

Екипът проведе изпитанието на международна конференция по сигурността, пускайки AI система, наречена MegaSyn, да работи, но не в стандартния си режим на работа, който е да открива токсичност в молекулите, за да ги избегне, а да прави обратното.

В експеримента токсичните молекули бяха задържани, а не елиминирани. Нещо повече – моделът също беше обучен да събира тези молекули в комбинации. По този начин много хипотетични биологични оръжия бяха генерирани за изключително кратко време.

По-специално изследователите обучиха AI с молекули от бази данни, подобни на наркотици, инструктирайки, че биха искали нещо подобно на мощния нервнопаралитичен агент VX.

Както се оказа, много от генерираните съединения бяха дори по-токсични от VX. В резултат на това авторите зад новото проучване пазят в тайна някои от детайлите на изследването си и сериозно са обсъдили дали изобщо да направят тези резултати публични.

„Чрез обръщане на използването на нашите модели за машинно обучение трансформирахме нашия безвреден генеративен модел от полезен инструмент на медицината в генератор на вероятно смъртоносни молекули“, обясняват изследователите.

В интервю за The Verge Фабио Урбина, водещ автор на новата статия и старши учен в Collaborations Pharmaceuticals, където се проведе изследването, обясни, че не е нужно много, за да „превключите ключа“ от добър AI към лош AI.

Въпреки че нито едно от изброените биологични оръжия всъщност не е изследвано или съставено в лаборатория, изследователите казват, че техният експеримент служи като предупреждение за опасностите от изкуствения интелект – и това е предупреждение, в което човечеството би било добре да се вслуша.

Макар че е необходим известен опит, за да се направи това, което екипът направи тук, голяма част от процеса е сравнително ясен и използва публично достъпни инструменти.

Сега изследователите призовават за „свеж поглед“ върху това как системите с изкуствен интелект могат потенциално да бъдат използвани за злонамерени цели. Те казват, че по-голямата осведоменост, по-строгите насоки и по-строгите регулации в изследователската общност биха могли да ни помогнат да избегнем опасностите от това, докъде иначе биха могли да доведат тези способности на алгоритмите.

„По този начин нашето доказателство за концепцията подчертава как един неорганичен автономен създател на смъртоносно химическо оръжие е напълно реална опасност“, обясняват изследователите.

„Без да сме прекалено параноични, това трябва да послужи като сигнал за събуждане за нашите колеги в общността за ролята на изкуствения интелект в откриването на лекарства.“

Снимка: Unsplash

Виж още: Квантовият апокалипсис е заплаха за начина ни на живот