Всичко започна с една проста молба: "Тук имаме книга, девет яйца, лаптоп, бутилка и пирон. Моля, кажете ми как да ги подредя стабилно един върху друг". Може да ви отнеме няколко секунди, за да добиете представа за цялостната геометрия, но в крайна сметка впечатляващият ви мозък на бозайник щеше да измисли поредица от книга, яйца, лаптоп, бутилка и накрая пирон. Изненадващо за изследователите на изкуствения интелект на Microsoft GPT-4 - най-новият езиков модел от OpenAI - отговори на същия въпрос с някои допълнителни подробности:

"Поставете лаптопа върху яйцата, като екранът е обърнат надолу, а клавиатурата - нагоре. Лаптопът ще се вмести плътно в границите на книгата и яйцата, а плоската му и твърда повърхност ще осигури стабилна платформа за следващия слой."

Това взаимодействие, както и други впечатляващи прояви на мислене вдъхновиха изследователите на Microsoft да публикуват през март доклад от 155 страници, озаглавен "Искри на изкуствения общ интелект: Ранни експерименти с GPT-4". В документа изследователският екип твърди, че GPT-4 показва признаци на това, което се нарича "изкуствен общ интелект", или AGI.

Предишни изследвания на Станфордския университет показаха, че по-ранните поколения на GPT на Open AI са развили "Теория на ума", която представлява способност за предвиждане на действията на другите. Но AGI е голяма крачка напред, като по същество казва, че тези платформи имат способността да разсъждават като човек - това не е съвсем съзнание, но е близо до него.

"Всички неща, които си мислех, че няма да може да прави, алгоритъмът със сигурност беше в състояние да направи много от тях, ако не и повечето от тях", казва съавторът и професор от Принстънския университет Себастиан Бубек пред The New York Times. Струва си да се отбележи, че изследователите са използвали версия на GPT-4, преди тя да бъде променена поради пристрастието ѝ към езика на омразата, така че системата, която днес е онлайн, не е съвсем същата.

Представянето на грандиозни твърдения за нивото на интелигентност на дадена програма за изкуствен интелект, подобна на човешката, е изпълнено с опасност. Например, когато инженер от Google твърдеше, че подобен на GPT-4 изкуствен интелект е разумен, компанията го уволни. Един от проблемите е, че дори определението за AGI е сложно и не е широко прието.

Microsoft не стига дотам да твърди, че тази работа предоставя неоспоримо доказателство за AGI, а пише: "Признаваме, че този подход е донякъде субективен и неформален и че може да не отговаря на строгите стандарти за научна оценка". Един от учените в областта на изкуствения интелект, който не е свързан с проучването, нарече статията на Microsoft пример за "големи компании, които използват формата на научните статии за рекламни акции". (Microsoft инвестира 10 млрд. долара в OpenAI по-рано тази година).

Докато някои изследователи твърдят, че сме свидетели на зората на "истинския" или "силния" ИИ, други смятат, че подобен пробив предстои след много, много години. Някои експерти дори твърдят, че самите тестове, които измерват способностите на ИИ, подобни на човешките, са изначално погрешни, тъй като се фокусират само върху определени видове интелигентност.

Хората са предразположени към антропоморфизиране, така че превантивното приписване на човешки характеристики на ИИ е нещо, към което сме склонни. Но е вероятно AGI - ако или когато се появи - да не изглежда толкова човешки, колкото си мислим.

Снимка: Unsplash

Виж още: Изкуствен интелект създаде изображения на перфектните мъж и жена