Ръководител по безопасността на OpenAI напусна работа, като заяви в онлайн форум, че е загубил увереност, че оглавяваната от Сам Олтман компания „ще се държи отговорно по време на появата на изкуствения общ интелект“ - теоретичната точка, в която изкуственият интелект може да надмине човека.

Изследователят Даниел Кокотайло, докторант по философия, който е работил в екипа за управление на OpenAI, е напуснал компанията миналия месец.

В няколко последователни публикации във форума LessWrong Кокотайло обясни своето „разочарование“, довело до напускането му, което е свързано с нарастващия призив да се сложи пауза на изследванията, които в крайна сметка биха могли да доведат до създаването на общ ИИ.

Това е разгорещен дебат, като експертите отдавна предупреждават за потенциалните опасности от ИИ, който надхвърля познавателните способности на хората. Миналата година над 1100 експерти, изпълнителни директори и изследователи в областта на изкуствения интелект - включително изпълнителният директор на SpaceX Илон Мъск - подписаха отворено писмо, в което призоваха за шестмесечен мораториум върху „експериментите с ИИ“.

„Мисля, че повечето хора, които настояват за пауза, се опитват да се противопоставят на „селективната пауза“ и за действителна пауза, която да се прилага за големите лаборатории, които са в челните редици на прогреса“, пише Кокотайло.

Той обаче твърди, че подобна „селективна пауза“ в крайна сметка няма да се прилага за „големите корпорации, които най-много се нуждаят от нея“.

„Разочарованието ми от това е част от причините, поради които напуснах OpenAI“, заключава той.

Кокотайло напусна приблизително два месеца след като инженерът изследовател Уилям Сондърс също напусна компанията.

Екипът Superalignment, от който Сондърс беше част в OpenAI в продължение на три години, беше съоснован от компютърния учен и бивш главен учен на OpenAI Иля Суцкевер и неговия колега Ян Лейке. Задачата му е да гарантира, че „системите с изкуствен интелект, които са много по-умни от хората, следват човешките намерения“, според уебсайта на OpenAI.

„Свръхинтелигентността ще бъде най-влиятелната технология, която човечеството някога е изобретявало, и може да ни помогне да решим много от най-важните световни проблеми“, се казва в описанието на екипа на компанията. „Но огромната мощ на свръхинтелигентността може да бъде и много опасна и да доведе до обезсилване на човечеството или дори до неговото изчезване.“

Вместо да разполага с „решение за управление или контрол на потенциално свръхинтелигентен изкуствен интелект и предотвратяване на избухването му“, компанията се надява, че „научните и техническите пробиви“ биха могли да доведат до също толкова свръхчовешки инструмент за подреждане, който може да държи под контрол системите, които са „много по-умни от нас“.

Но като се има предвид напускането на Сондърс, изглежда, че не всички от екипа на Superalignment са били единодушни относно способността на компанията да контролира евентуален общ ИИ.

Дебатът относно опасностите от неконтролирания свръхинтелигентен ИИ може да е изиграл роля за уволнението и евентуалното повторно наемане на главния изпълнителен директор Сам Олтман миналата година. Съобщава се, че Суцкевер, който е бил член на първоначалния управителен съвет на юридическото лице с нестопанска цел OpenAI, не е бил съгласен с Олтман по темата за безопасността на ИИ, преди Олтман да бъде отстранен, а по-късно е бил изключен от борда.

Снимка: Unsplash

Виж още: Ето как изследователите разбиха 11-годишна парола за крипто портфейл за 3 млн. долара