Едно скорошно, но досега пренебрегнато проучване, публикувано в сп. Wired, математически доказва, че големите езикови модели „са неспособни да изпълняват изчислителни и агентни задачи над определена сложност“ – като това ниво на сложност е (което е от решаващо значение) доста ниско.
Статията, която не е преминала през рецензиране, е написана от Вишал Сика, бивш технически директор на германския софтуерен гигант SAP, и неговия син Варин Сика. Сика-старши знае доста неща за изкуствения интелект: той е учил при Джон Маккарти, компютърния учен, носител на наградата „Тюринг“, който буквално е основал цялата област на изкуствения интелект и всъщност е помогнал за създаването на самия термин.
„Няма как да бъдат надеждни“, казва Вишал Сика пред Wired.
Когато интервюиращият го попита, Сика също е категоричен, че трябва да забравим за ИИ агенти, управляващи атомни електроцентрали, и други гръмки обещания, разпространявани от поддръжниците на изкуствения интелект.
Не обръщайте внимание на реториката, която изричат в светлините на прожекторите изпълнителните директори на технологични компании, а се фокусирайте върху откритията на изследователите, които работят за тях, и ще установите, че дори ИИ индустрията е съгласна, че тази технология има някои фундаментални ограничения, заложени в нейната архитектура. През септември например учените от OpenAI признаха, че халюцинациите на изкуствения интелект, при които LLM уверено измислят факти, все още са широко разпространен проблем дори във все по-усъвършенстваните системи, и че точността на модела никога няма да достигне 100%.
Това изглежда ще нанесе сериозен удар върху осъществимостта на така наречените ИИ агенти, които са модели, проектирани да изпълняват задачи автономно, без човешка намеса и които индустрията единодушно реши миналата година, че ще бъдат следващото голямо нещо. Някои компании, които приеха ИИ агентите, за да намалят работната си сила, бързо осъзнаха, че агентите не са достатъчно добри, за да заменят напускащите хора, може би защото халюцинират толкова много и едва успяват да изпълнят някоя от задачите, които им се възлагат.
Лидерите в областта на изкуствения интелект настояват, че по-силни предпазни мерки извън моделите на изкуствения интелект могат да филтрират халюцинациите. Те може би винаги ще са склонни към халюцинации, но ако тези грешки са достатъчно редки, то в крайна сметка компаниите ще им се доверят да започнат да изпълняват задачи, които преди са възлагали на хора от плът и кръв. В същата статия, в която изследователите от OpenAI признават, че моделите никога няма да достигнат перфектна точност, те отхвърлят и идеята, че халюцинациите са „неизбежни“, защото LLM „могат да се въздържат, когато са несигурни“. Въпреки това трудно бихте намерили един-единствен популярен чатбот, който действително прави това, почти сигурно защото това би направило чатботовете по-малко впечатляващи и по-малко привлекателни за използване.
Въпреки че е категоричен, че LLM имат твърд таван, Сика е съгласен с личности от ИИ индустрията, които настояват, че халюцинациите могат да бъдат овладени.
„В нашата статия се казва, че чистият LLM има това присъщо ограничение, но в същото време е вярно, че можете да създадете компоненти около LLM, които преодоляват тези ограничения“, завършва той пред Wired.
Снимка: Pexels
Виж още: Легендарната фотографска компания Leica може да има нов собственик срещу 1 млрд. долара