С появата на ChatGPT, Bard и други големи езикови модели (LLM) чухме предупреждения от за рисковете, които крие изкуственият интелект (AI или ИИ). Сега група от високопоставени лидери в индустрията направиха изявление от едно изречение, което на практика потвърждава тези опасения.

"Намаляването на риска от изчезване вследствие на ИИ трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война."

То е публикувано в Центъра за безопасност на изкуствения интелект - организация, чиято мисия е "да намали рисковете от изкуствения интелект в обществен мащаб" според нейния уебсайт. Подписалите се са представители на индустрията на изкуствения интелект, включително изпълнителният директор на OpenAI Сам Олтман и ръководителят на Google DeepMind Демис Хасабис. Наградените с "Тюринг" изследователи Джефри Хинтън и Йошуа Бенгио, считани от мнозина за кръстници на съвременния изкуствен интелект, също са се подписали под документа.

Това е второто подобно изявление през последните няколко месеца. През март Илон Мъск, Стив Возняк и повече от 1000 други призоваха за шестмесечна пауза в областта на ИИ, за да се даде възможност на индустрията и обществото ефективно да наваксат с технологията. "През последните месеци лабораториите за изкуствен интелект се впуснаха в неконтролируема надпревара за разработване и внедряване на все по-мощни цифрови умове, които никой - дори техните създатели - не може да разбере, предвиди или надеждно да контролира", се казва в писмото.

Въпреки че ИИ не е (вероятно) самоосъзнат, както се опасяват някои, той вече създава рискове за злоупотреба и вреди чрез дълбоки фалшификати, автоматизирана дезинформация и др. ИИ може също така да промени начина, по който се създават съдържание, изкуство и литература, което може да засегне множество работни места.

Президентът на САЩ Джо Байдън неотдавна заяви, че "тепърва ще се види" дали ИИ е опасен, като добави: "Според мен технологичните компании имат отговорността да се уверят, че продуктите им са безопасни, преди да ги направят обществено достояние... ИИ може да помогне за справяне с някои много трудни предизвикателства като болестите и изменението на климата, но трябва да се обърне внимание и на потенциалните рискове за нашето общество, за нашата икономика, за нашата национална сигурност". По време на неотдавнашна среща в Белия дом шефът на OpenAI Сам Oлтман призова за регулиране на ИИ поради потенциалните рискове.

При наличието на многобройни мнения новото, кратко изявление има за цел да покаже общата загриженост около рисковете, свързани с ИИ, дори ако страните не са съгласни какви са те.

"Експертите по ИИ, журналистите, политиците и обществеността все по-често обсъждат широк спектър от важни и спешни рискове от ИИ", се казва в преамбюла на изявлението. "Дори и така може да е трудно да се изрази загриженост относно някои от най-сериозните рискове, свързани с усъвършенствания ИИ. Краткото изявление по-долу има за цел да преодолее тази пречка и да отвори дискусията. То също така има за цел да създаде общо познание за нарастващия брой експерти и обществени фигури, които също приемат сериозно някои от най-сериозните рискове, свързани с усъвършенствания ИИ."

Снимка: Unsplash

Виж още: Следващата ви работа може да зависи от AI