След като бивши и настоящи служители на OpenAI пуснаха отворено писмо, в което твърдят, че им се забранява повдигането на въпроси за безопасността, един от подписалите писмото направи още по-страшна прогноза: вероятността ИИ да унищожи или катастрофално да навреди на човечеството е по-голяма от хвърляне на монета.

В интервю за „Ню Йорк Таймс“ бившият изследовател на управлението на OpenAI Даниел Кокотайло обвини компанията, че пренебрегва монументалните рискове, породени от изкуствения общ интелект (ИОИ), тъй като нейните ръководители са толкова очаровани от неговите възможности.

„OpenAI е наистина развълнувана от създаването на ИОИ“, казва Кокотайло, „и безразсъдно се надпреварва да бъде първа там“.

Най-колоритното твърдение на Кокотайло пред вестника обаче беше, че шансът ИИ да разруши човечеството е около 70% - вероятност, която не бихте приели за нито едно голямо житейско събитие, но с която OpenAI и подобните ѝ компании все пак продължават напред в дейността си.

Терминът p(doom), който на езика на изкуствения интелект означава вероятността изкуственият интелект да донесе гибел на човечеството, е обект на постоянни спорове в света на машинното обучение.

31-годишният Кокотайло разказва пред NYT, че след като се присъединил към OpenAI през 2022 г. и бил помолен да прогнозира напредъка на технологията, той се убедил не само, че индустрията ще постигне AGI до 2027 г., но и че има голяма вероятност това да навреди катастрофално или дори да унищожи човечеството.

Както е отбелязано в отвореното писмо, Кокотайло и неговите колеги - сред които са бивши и настоящи служители в Google DeepMind и Anthropic, както и Джефри Хинтън, така нареченият „кръстник на ИИ“, който напусна Google миналата година поради подобни опасения - отстояват „правото си да предупреждават“ обществеността за рисковете, които ИИ създава.

Кокотайло е толкова убеден, че изкуственият интелект крие огромни рискове за човечеството, че в крайна сметка лично призовава главния изпълнителен директор на OpenAI Сам Олтман компанията да се „насочи към безопасността“ и да отделя повече време за въвеждане на предпазни огради, за да ограничи технологията, вместо да продължава да я прави по-интелигентна.

Според разказа на бившия служител Олтман изглежда се е съгласил с него тогава, но с течение на времето това изглежда само думи. Кокотайло напусна фирмата през април, като съобщи на екипа си в имейл, че е „изгубил увереност, че OpenAI ще се държи отговорно“, докато продължава да се опитва да създава изкуствен интелект на почти човешко ниво.

„Светът не е готов и ние не сме готови“, пише той в имейла си, който е предоставен на NYT. „И се притеснявам, че се втурваме напред независимо от това и рационализираме действията си.“

Последните новини от OpenAI са мрачни - между напускането на големите имена и тези ужасяващи прогнози - и е трудно да се види как ще станат по-оптимистични занапред.

„Гордеем се с постиженията си в осигуряването на най-способните и най-безопасните системи за изкуствен интелект и вярваме в научния си подход за справяне с рисковете“, се казва в изявление на компанията след публикуването на този материал. „Съгласни сме, че строгият дебат е от решаващо значение предвид значимостта на тази технология, и ще продължим да се ангажираме с правителствата, гражданското общество и други общности по света.“

Снимка: Unsplash

Виж още: Психолог обяснява защо е възможно да се влюбим в изкуствен интелект