Ако сме сами във Вселената, астрофизикът Майкъл Гарет казва, че това може да се дължи на факта, че извънземните споделят екзистенциален проблем, с който ние едва сега започваме да се съобразяваме: мощен изкуствен интелект.
Появата на изкуствен свръхинтелект (ИСИ), предлага Гарет в нова статия, публикувана в списание Acta Astronautica, може да попречи на дългосрочното оцеляване на извънземните цивилизации - и може би да възпрепятства развитието им в космически многопланетни империи.
Това е хипотеза, която може дори да помогне да се отговори на парадокса на Ферми, който пита защо все още не сме открили извънземни цивилизации, след като нашата неописуемо обширна вселена изобилства от обитаеми светове.
"Възможно ли е изкуственият интелект да е "големият филтър" на Вселената - праг, който е толкова труден за преодоляване, че не позволява на повечето видове живот да се превърнат в космически цивилизации?", пише в есе за The Conversation Гарет, който е ръководител на Катедрата по астрофизика в Манчестърския университет.
Според Гарет изкуствен свръхинтелект не само ще бъде по-интелигентен от хората, но и "ще подобри собствените си способности със скорост, която изпреварва нашите собствени еволюционни срокове без ИИ".
И в това се крият "огромните" рискове. Ако системите с ИИ получат власт над военните способности например, войните, които водят, могат да унищожат цялата ни цивилизация.
"Според моите оценки при този сценарий типичната продължителност на живота на една технологична цивилизация може да бъде по-малко от 100 години", пише Гарет.
"Това е приблизително времето между възможността да приемаме и излъчваме сигнали между звездите (1960 г.) и предполагаемата поява на ИСИ (2040 г.) на Земята", добавя той. "Това е обезпокоително кратко, ако се съпостави с космическата времева скала от милиарди години."
Разбира се, предложението на Гарет е само един от възможните отговори на парадокса на Ферми. Възможно е също така Вселената да е твърде обширна, а интелигентността - твърде рядка, или времевите мащаби - твърде епични, за да могат цивилизациите да се срещнат една с друга.
Но нека това не омаловажава рисковете, свързани с ИИ, дори ако сега те все още изглеждат сравнително слаби. Многобройни са въпросите относно законността на използването на материали, защитени с авторски права, като книги и произведения на изкуството, за обучение на генеративни модели на ИИ. Налага се да се сблъскаме и с въздействието на технологията върху околната среда, тъй като компютрите, които я захранват, консумират зашеметяващи количества вода и електроенергия.
Това не са чак толкова сериозни предвестници на драматичен апокалипсис на ИИ, но то може бързо да се промени. За да се справи с тези рискове, Гарет призовава за строги правила за развитието на ИИ, особено за интегрирането на технологията във военни системи, като например начина, по който Израел според съобщенията използва ИИ за идентифициране на цели за въздушни удари в Газа.
"Вече има доказателства, че хората доброволно се отказват от значителна власт в полза на все по-способни системи", казва Гарет, "защото те могат да изпълняват полезни задачи много по-бързо и ефективно без човешка намеса".
"Това означава, че вече сме опасно близо до пропаст, в която автономните оръжия действат отвъд етичните граници и заобикалят международното право."
Снимка: Unsplash
Виж още: Най-голямата триизмерна карта на Вселената разкрива идеи за нова теория на физиката (ВИДЕО)