Китайски изследователи твърдят, че са открили доказателства, че големите езикови модели (LLM) могат да разбират и обработват природни обекти като човешките същества. Това според тях се случва спонтанно, дори без да са изрично обучени за това.

Според изследователи от Китайската академия на науките и Южнокитайския технологичен университет в Гуанджоу някои изкуствени интелекти (като ChatGPT или Gemini) могат да отразяват ключова част от човешкото познание, а именно сортирането на информация.

Тяхното проучване, публикувано в Nature Machine Intelligence, изследва дали моделите с голям език (LLM) могат да развият когнитивни процеси, подобни на тези при представянето на човешки обекти. Или, с други думи, да разберат дали LLM могат да разпознават и категоризират неща въз основа на функция, емоция, среда и др.

За да установят дали това е така, изследователите задали на изкуствения интелект задачи „отделяне на един нечетлив елемент“, използвайки или текст (за ChatGPT-3.5), или изображения (за Gemini Pro Vision). За тази цел те събрали 4.7 милиона отговора от 1854 природни обекта (като кучета, столове, ябълки и коли).

Те открили, че от създадените модели са създадени шестдесет и шест концептуални измерения, за да организират обектите, точно както биха направили хората. Тези измерения се простират отвъд основните категории (като „храна“), за да обхванат сложни атрибути, включително текстура, емоционална значимост и пригодност за деца.

Учените също така открили, че мултимодалните модели (комбиниращи текст и изображение) са в още по-голямо съответствие с човешкото мислене, тъй като изкуствените интелекти обработват едновременно визуални и семантични характеристики. Освен това екипът открил, че данните от сканиране на мозъка (невроизобразяване) разкриват припокриване между начина, по който изкуственият интелект и човешкият мозък реагират на обекти.

Констатациите са интересни и изглежда предоставят доказателства, че системите с изкуствен интелект биха могли наистина да „разбират“ по човешки начин, а не просто да имитират реакции. Това също така предполага, че бъдещите изкуствени интелекти биха могли да имат по-интуитивно, съвместимо с човека разсъждение, което е от съществено значение за роботиката, образованието и сътрудничеството между човек и изкуствен интелект.

Важно е обаче да се отбележи, че големите езикови модели не разбират обектите по начина, по който хората го правят емоционално или емпирично.

Изкуствените интелекти работят, като разпознават модели в езика или изображенията, които често съответстват много на човешките понятия. Макар че на пръв поглед това може да изглежда като „разбиране“, то не се основава на житейски опит или заземено сензорно-моторно взаимодействие.

Също така някои части от представянията на ИИ може да корелират с мозъчната активност, но това не означава, че те могат да „мислят“ като хората или да споделят една и съща архитектура.

Всъщност те могат да се разглеждат по-скоро като сложно копие на разпознаването на човешки модели, отколкото като мислеща машина. LLM са по-скоро като огледало, направено от милиони книги и картини, отразяващо тези модели на потребителя въз основа на научени модели.

Резултатите от проучването показват, че LLM и хората може би се сближават по сходни функционални модели, като например организиране на света в категории. Това оспорва мнението, че ИИ могат да „изглеждат“ умни само чрез повтаряне на модели в данните.

Но ако, както твърди проучването, големите езикови модели започнат да изграждат концептуални модели на света независимо, това би означавало, че бихме могли да се доближим до изкуствения общ интелект (AGI) - система, която може да мисли и разсъждава в много задачи като човек.

Снимка: Unsplash

Виж още: В Китай 100 000 долара ви купуват кола с лукса на Maybach, визията на Rolls Royce и технологията на Huawei