Бивш изследовател на OpenAI казва, че се опасява, че изкуственият интелект представлява риск за човечеството.
"Мисля, че може би има нещо като 10-20% шанс за завладяване на света ни от ИИ, при което много или повечето хора ще загинат", казва Пол Кристиано по време на участие в подкаста Bankless. "Приемам го доста сериозно."
Кристиано, който ръководи изследователския център с нестопанска цел Alignment Research Center, а преди това е ръководил екипа за подреждане на езикови модели в OpenAI, беше попитан за вероятността от "пълен сценарий на гибел на Елиезер Юдковски" от водещите Дейвид Хофман и Райън Шон Адамс. Юдковски е описван като "предвестник на ИИ апокалипсиса" и предупреждава за потенциалните рискове на технологията от повече от 20 години.
Кристиано казва, че възгледите му се различават от тези на Юдковски, когато става въпрос за скоростта, с която технологията вероятно ще се развие. "Елиезер очаква изключително бърза трансформация, след като се развие ИИ", казва той. "Аз имам малко по-малко крайно мнение за това."
"Склонен съм да си представя нещо като едногодишен преход от системи с изкуствен интелект, които са доста голяма работа, към ускоряване на промяната, последвано от по-нататъшно ускоряване и т.н.", казва той. "Мисля, че щом имате тази представа, тогава много неща могат да се почувстват като проблеми с ИИ, защото се случват много скоро след изграждането му."
"Като цяло може би се доближавате повече до 50/50 шанс за гибел скоро след като имате системи с ИИ, които са на нивото на човека", прогнозира той.
Кристиано се присъединява към нарастващия брой гласове, които са изнервени от развитието на ИИ. Неотдавна група експерти по ИИ подписаха отворено писмо, в което призоваха за 6-месечна пауза на напредналите разработки на ИИ.
Снимка: Unsplash
Виж още: Meta предупреждават за измами с ChatGPT