Нов модел на изкуствен интелект току-що постигна резултати на нивото на човека на тест, предназначен за измерване на „общия интелект“.
На 20 декември системата o3 на OpenAI постигна 85 % от резултата в сравнителния тест ARC-AGI, което е значително над предишния най-добър резултат на ИИ от 55 % и е равностойно на средния човешки резултат. Тя постигна добри резултати и на много труден математически тест.
Създаването на изкуствен общ интелект (ИОИ) е заявената цел на всички големи изследователски лаборатории за ИИ. На пръв поглед изглежда, че OpenAI поне е направила значителна крачка към тази цел.
Въпреки че скептицизмът остава, много изследователи и разработчици на ИИ смятат, че нещо току-що се е променило. За мнозина перспективата за ИОИ сега изглежда по-реална, по-належаща и по-близка от очакваното. Дали са прави?
За да разберете какво означава резултатът на o3, трябва да разберете какво представлява тестът ARC-AGI. На технически език това е тест за „ефективността на извадката“ на системата за изкуствен интелект при адаптирането ѝ към нещо ново - колко примера за нова ситуация трябва да види системата, за да разбере как работи.
Система за изкуствен интелект като ChatGPT (GPT-4) не е много ефективна по отношение на извадката. Тя е „обучена“ върху милиони примери на човешки текст, като е изградила вероятностни „правила“ за това кои комбинации от думи са най-вероятни. Резултатът е доста добър при изпълнението на общи задачи. Той е лош при необичайни задачи, защото разполага с по-малко данни (по-малко извадки) за тези задачи.
Докато системите с изкуствен интелект не могат да се учат от малък брой примери и да се адаптират с по-голяма ефективност на извадките, те ще се използват само за много повтарящи се задачи и такива, при които случайният неуспех е допустим. Способността за точно решаване на неизвестни досега или нови проблеми от ограничени извадки от данни е известна като способност за обобщаване. Широко разпространено е мнението, че тя е необходим, дори основен елемент на интелигентността.
Не знаем как точно OpenAI го е направила, но резултатите показват, че моделът o3 е много адаптивен. Само от няколко примера той намира правила, които могат да бъдат обобщени. За да разберем даден модел, не трябва да правим излишни предположения или да бъдем по-конкретни, отколкото наистина трябва да бъдем. На теория, ако можете да идентифицирате „най-слабите“ правила, които правят това, което искате, тогава сте увеличили максимално способността си да се адаптирате към нови ситуации.
Въпросът тогава е дали това наистина е по-близо до ИОИ?
Ако това е начинът, по който работи o3, тогава основният модел може да не е много по-добър от предишните модели. Понятията, които моделът научава от езика, може да не са по-подходящи за обобщаване, отколкото преди. Вместо това може би просто наблюдаваме по-обобщаваща „верига от мисли“, намерена чрез допълнителните стъпки на обучение на евристична система, специализирана за този тест.
Почти всичко за o3 остава неизвестно. OpenAI е ограничила разкриването на информация до няколко медийни презентации и ранно тестване на шепа изследователи, лаборатории и институции за безопасност на изкуствения интелект. Истинското разбиране на потенциала на o3 ще изисква задълбочена работа, включително оценки, разбиране на разпределението на капацитета му, колко често се проваля и колко често успява.
Когато o3 най-накрая бъде пуснат на пазара, ще имаме много по-добра представа дали е приблизително толкова адаптивен, колкото средния човек.
Снимка: Unsplash
Виж още: Тази нова портативна конзола се опълчва на Steam Deck с подвижната си клавиатура