Гледахте ли „Превъзходството” (Transcendence) с Джони Деп? Стивън Хокинг вече го е направил и има да сподели своите притеснения в Independent. ИИ (изкуствен интелект) e една от целите, които учените си поставят за бъдещето. „В краткосрочен план влиянието на ИИ зависи от този, който го контролира. В дългосрочен план – зависи от това дали въобще може да бъде контролиран”, изказва своите притеснения брилянтният учен. Както в краткосрочен, така и в дългосрочен план е наличен сериозен потенциал за развитие на неприятен сценарий – Хокинг не е готов да се довери на ИИ експертите.

 

„Трудно могат да бъдат определени ползите и рисковете, които бъдещето ще донесе, но учените се опитват да направят всичко по силите си, за да осигурят най-добрия изход, нали? Не. Ако превъзхождаща ни извънземна цивилизация изпрати съобщение „Пристигаме след няколко десетилетия”, нашият отговор ще бъде „ОК, обадете сте, когато сте тук – оставяме светлините включени”? Най-вероятно не – но нещо подобно се случва с ИИ”.

 

 

Тези думи не са далеч от истината. Често желанието на инженерите да разработят определена технология надвишава оценката за риска, който тя може да има върху човечеството. Обичате ли да шофирате? Ето това е нещо, което в бъдещето може би ще ни бъде отнето, тъй като в момента има сериозна пара за създаване и налагане на самоуправляващи се автомобили.

 

Хокинг допуска, че от роботите и останалите машини с ИИ може да имат огромна полза. Ако са успешни, това може би ще бъде „най-голямото събитие в човешката история”. Но ИИ може да бъде и последното нещо в нея. Притесненията му идват от факта, че в момента се правят твърде малко проучвания за потенциалния риск и ползи, свързани с тази технология. Хокинг се опитва за пореден път да ни напомни, че обаянието на научната фантастика може да ни заслепи и наруши преценката ни – това може да прикрие знаците, че последствията ще бъдат катастрофални. Човечеството има навика да се влюбва в своята находчивост и ум, пропускайки факта, че нещо може сериозно да се обърка. Може би, както казва Хокинг, повече учени трябва да се фокусират върху резервен вариант, ако нещата се объркат. За всеки случай...

Смятате ли, че човечеството може да изпусне ИИ извън своя контрол?