Главният изпълнителен директор на OpenAI Сам Олтман добре познава концепцията за изкуствен общ интелект (AGI) - хипотетичен бъдещ момент, в който машините ще могат да изпълняват интелектуални задачи на нивото на човека или дори по-добре.
А когато става въпрос за съдбата ни като вид на Земята, Олтман изпитва смесени чувства към твърде мощната технология.
Със старта на новаторския инструмент за чатботове ChatGPT концепцията никога не е била по-актуална. Всъщност над 1100 експерти, изпълнителни директори и изследователи - включително изпълнителният директор на SpaceX Илон Мъск - наскоро подписаха писмо, в което призовават за шестмесечен мораториум върху "експериментите с изкуствен интелект", които извеждат технологията отвъд GPT-4.
Някои дори стигат по-далеч: според тях напредналият AI трябва да бъде забранен и дори трябва да "унищожим с въздушен удар един излязъл от контрол център за данни", за да спрем разпространението на свръхчовешкия AGI.
За Олтман е интересно, че тези опасения са едновременно рационални и напълно пресилени. Всъщност понякога звучи така, сякаш той предсказва каквото е удобно в момента: опасност, когато трябва да се генерира едновременно внимание, и безопасност, когато трябва да се потуши проблемът.
"Опитвам се да бъда откровен", казва той пред The New York Times през 2019 г. "Дали правя нещо добро? Или наистина лошо?"
Отговорът на този въпрос изглежда все още е предмет на дискусия за главния изпълнителен директор. По онова време той оприличи работата на OpenAI на проекта "Манхатън" - усилията на Съединените щати да разработят атомната бомба по време на Втората световна война. Макар да заяви пред вестника, че според него AGI може да донесе огромно богатство на хората, той също така призна, че в крайна сметка може да доведе до апокалипсис.
Сега, когато ChatGPT е наличен и дискусията относно безопасността на AI е в разгара си - нещо, което донесе огромно богатство на OpenAI, - Олтман изпълнява значително по-различна песен. Сега той твърди, че опасенията, изразени в наскоро публикуваното писмо, са пресилени.
"Шумотевицата около тези системи - дори ако всичко, на което се надяваме, е правилно в дългосрочен план - е напълно извън контрол в краткосрочен план", заявява той пред NYT в ново интервю, като добавя, че имаме достатъчно време да изпреварим тези проблеми. В много отношения това е доста удобен реторичен подход за човек като него, който пряко се е възползвал от пускането на инструменти като GPT-4 на пазара.
"В рамките на един-единствен разговор", казва Кели Симс, съветник в борда на OpenAI, пред NYT, "той е от двете страни на клуба за дебати".
И макар че според The Wall Street Journal Олтман няма пряк дял във финансовия успех на OpenAI, той очевидно има голяма полза от това да увери инвеститорите, че AGI няма да срине цивилизацията. Но дали парите изобщо са мотивация за Олтман, който е инвеститор, вече е натрупал състояние много преди да поеме ръководството на OpenAI?
Дългогодишният му ментор Пол Греъм казва пред NYT, че това вероятно е така, защото "той обича властта" и че "работи върху нещо, което няма да го направи по-богат", защото така правят "много хора, след като имат достатъчно пари, а Сам вероятно има". Накратко, изглежда, че Олтман иска да преобрази света - дори и да не е сигурен как неговата технология ще го направи.
И дали, образно казано, работи върху атомна бомба, която може да заличи човечеството, или върху технология, която може да го спаси, изглежда няма голямо значение за него.
Снимка: Unsplash
Виж още: Бил Гейтс e срещу паузата в AI напредъка: тя няма да реши предизвикателствата