Британско-канадският компютърен учен, който често е определян като „кръстник“ на изкуствения интелект, повиши шансовете на изкуствения интелект да унищожи човечеството през следващите три десетилетия, като предупреди, че темпото на промяна в технологията е „много по-бързо“ от очакваното.

Проф. Джефри Хинтън, който тази година получи Нобелова награда за физика за работата си в областта на изкуствения интелект, заяви, че има 10-20 % шанс изкуственият интелект да доведе до изчезването на човечеството през следващите три десетилетия.

Преди това Хинтън беше казал, че има 10% вероятност технологията да доведе до катастрофални последици за човечеството.

Запитан в предаването Today на BBC Radio 4 дали е променил анализа си за потенциалния апокалипсис на изкуствения интелект и вероятността това да се случи да е 1:10, той отговори: „Не съвсем, от 10 до 20 %.“

Оценката на Хинтън накара гост-редактора на Today бившия канцлер Саджид Джавид, да каже: „Повишавате залога“, на което Хинтън отговори: „Има нещо такова. Виждате ли, никога досега не ни се е налагало да се справяме с неща, които са по-интелигентни от нас самите.“

Той добави: „А колко примера знаете за по-интелигентно нещо, контролирано от по-малко интелигентно? Има много малко примери. Имате майка и бебе. Еволюцията е положила много усилия, за да позволи на бебето да контролира майката, но това е единственият пример, който познавам.“

Роденият в Лондон Хинтън, почетен професор в Университета в Торонто, казва, че хората ще бъдат като малки деца в сравнение с интелигентността на високомощните системи за изкуствен интелект.

„Обичам да мисля за това така: представете си себе си и едно тригодишно дете. Ние ще бъдем тригодишните деца“, казва той.

Миналата година Хинтън попадна в заглавията на вестниците, след като подаде оставка от позицията си в Google, за да говори по-открито за рисковете, свързани с неограниченото развитие на изкуствения интелект, като изрази опасения, че „лоши играчи“ ще използват технологията, за да навредят на други хора. Основното опасение на активистите за безопасност на ИИ е, че създаването на изкуствен общ интелект или на системи, които са по-умни от хората, може да доведе до това технологията да представлява екзистенциална заплаха, като избегне човешкия контрол.

Размишлявайки върху това, докъде според него щеше да стигне развитието на изкуствения интелект, когато за пръв път е започнал работата си по технологията, Хинтън казва: „Не мислех, че ще бъде там, където сме сега. Мислех, че в някакъв момент в бъдещето ще стигнем дотук.“

Снимка: Unsplash

Виж още: Илон Мъск намекна за X Mail - потенциален конкурент на Gmail