Ново проучване показва, че усъвършенстваните модели на изкуствен интелект са доста добри в това да се държат като по-глупави, отколкото са - което може да има огромни последици, тъй като те продължават да стават все по-умни.

Публикувано в списание PLOS One, изследователите от Хумболтовия университет в Берлин установяват, че при тестването на голям езиков модел (LLM) по така наречените критерии за "теория на ума", те откриват, че ИИ не само може да имитира етапите на изучаване на езика, които се проявяват при децата, но изглежда изразява и нещо подобно на умствените способности, свързани с тези етапи.

В интервю за PsyPost научният сътрудник от Хумболтовия университет и главен автор на изследването Анна Маклова, която също така е експерт по психолингвистика, обясни как нейната област на изследване е свързана с очарователното откритие.

"Благодарение на психолингвистиката имаме сравнително задълбочена представа за това, на какво са способни децата на различни възрасти", казва Марклова пред изданието. "По-специално теорията на ума играе важна роля, тъй като тя изследва вътрешния свят на детето и не е лесно да се имитира чрез наблюдение на прости статистически модели."

На фона на детската теория на ума изследователката и нейните колеги от Карловия университет в Прага се опитват да установят дали LLM като GPT-4 на OpenAI "могат да се преструват на по-малко способни, отколкото са".

За да разберат това, изследователският екип, съставен предимно от чешки учени, инструктира моделите да се държат като деца на прогресивна възраст от една до шест години, когато дават отговори. Когато били подложени на серия от повече от 1000 изпитания и когнитивни тестове, тези "симулирани детски личности" наистина изглеждали, че напредват по същия начин, както децата на тази възраст - и в крайна сметка показали, че моделите могат да се преструват на по-малко интелигентни, отколкото са.

"Големите езикови модели", заключава Марклова, "са способни да симулират по-ниска интелигентност, отколкото притежават."

Както се предупреждава в самия документ, антропоморфизирането на изкуствения интелект, макар и да е "полезно съкращение" за разбиране на тези модели от човешка гледна точка, като цяло не е полезно. Вместо това те предлагат нова теория на ума, която измества парадигмата от това дали моделите са "добри" или "лоши" и "полезни" или "неполезни" към това колко добре могат да "конструират личности" като например детските от техните експерименти.

В крайна сметка, както казва Маклова пред уебсайта, тези открития биха могли да подпомогнат развитието на изкуственaтa свръхинтелигентност, следващата стъпка след изкуствения общ интелект на човешко ниво - и да помогнат да го направим по-безопасен, когато го направим.

"При разработването на интелигентни алгоритми трябва да бъдем предпазливи, за да не изискваме от тях да подражават на човешкия и следователно ограничен интелект", каза тя пред PsyPost. "Това предполага, че можем да подценим техните възможности за продължителен период от време, което не е безопасна ситуация."

Снимка: Unsplash

Виж още: Този хибриден самолетен дизайн може да направи полетите по-евтини от билетче в трамвая