Войните на чатботовете, водени от ChatGPT на OpenAI, властелина на Bing Microsoft и борещия се да ги настигне Google, са в ход, като гигантите от Силициевата долина и най-големите инвеститори в индустрията бързат да хвърлят големи долари за системи за генериране на текст.

Но според двама експерти в тяхно остро есе в Salon сегашният шум около чатбот алгоритмите е обречен да бъде това, от което инвеститорите се страхуват най-много: балон. Когато бъде спукан, твърдят те, той ще разкрие, че системите, захранвани от Large Language Model (LLM), са много по-малко иновативни технологии за смяна на парадигмата и наистина просто много заблуда, дим и огледала.

„Безспорната магия на човешките разговори, генерирани от GPT“, пишат Гари Н. Смит, професор по икономика в Pomona College, и Джефри Лий Фънк, независим технологичен консултант, „без съмнение ще обогати мнозина, които разпространяват фалшивите разкази, че компютрите вече са по-умни от нас и може да им се вярва да вземат решения вместо нас“.

„Балонът с AI“, продължават те, „се надува бързо“.

Есето на експертите се корени в аргумента, че много инвеститори изглежда просто не разбират фундаментално основната технология зад лесно антропоморфизираните езикови модели. Въпреки че ботовете, по-специално ChatGPT и базираното на OpenAI Bing Search, звучат впечатляващо човешки, те всъщност не синтезират информация и по този начин не успяват да предоставят обмислени, аналитични или обикновено дори правилни отговори в замяна.

Вместо това, подобно на функцията за предсказуем текст на смартфони или в програми за електронна поща, те просто предвиждат какви думи могат да бъдат следващите в изречението. Всеки бърз отговор е уравнение на вероятността за разлика от демонстрация на каквото и да е реално разбиране на материала – една реалност, която подчертава основния недостатък, който води до феномена на AI халюцинация. Това е много сериозен провал на технологията, усложнен още повече от склонността на машините да звучат прекалено уверено и понякога чак да станат борбени дори когато дават неправилни отговори.

„Обучени върху невъобразими количества текст, те нанизват думи в съгласувани изречения въз основа на статистическата вероятност за думи, следващи други думи“, обясняват Смит и Фънк. „Но те не са „интелигентни“ по никакъв реален начин – те са просто автоматизирани калкулатори, които изплюват думи.“

Много AI оптимисти, от друга страна, са отписали понякога смешните, понякога наистина ужасяващите шеги и грешки на процъфтяващата технология като болка на растежа. Те често твърдят, че натрупването на повече данни, които включват безплатните данни, предоставени на машините чрез обществено ползване, ще донесе решението на проблемите на чатботовете с проверката на фактите.

Ако случаят е такъв, това не би било основен дефект в системата. Това също е изкушаващ разказ за инвеститорите в AI бранша, които биха предпочели да купят кола със спукана гума, отколкото кола, която просто не може да функционира, както е обещано. Но според Смит и Фънк повече данни всъщност биха могли да влошат много ясните проблеми на програмите.

„Обучението им върху по-големи бази данни няма да реши присъщия проблем: LLM са ненадеждни, защото не знаят какво означават думите. Точка“, твърдят експертите.

„Всъщност“, добавят те, „обучението за бъдещи бази данни, които все повече включват глупости, написани от LLM, ще ги направи още по-малко надеждни“.

С други думи: ако, както се страхуват много други експерти, неправилно или по друг начин подвеждащо или вредно съдържание, създадено от чатботове – което в момента е доста евтино и лесно за създаване – започне да задръства интернет, роботи като ChatGPT и Bing Search ще имат все повече трудности за сортиране на това кое е истинско и кое не. Достоверната информация ще бъде по-малко и по-далеч от всякога и в известен смисъл интернет ще се превърне в имитация на себе си.

Разбира се, това е песимистично мнение и може би оптимистите за AI бъдещето са прави. Независимо от това обаче много влиятелни хора там продължават да наливат големи пари в LLM, да не говорим за поредица от други генеративни AI технологии. Заради тях самите те имат личен интерес да гарантират, че тези AI продукти ще попаднат в ръцете на потребителите – без значение дали продуктите наистина променят играта в дългосрочен план.

„Този удивителен и внезапен спад“, пишат Смит и Фънк, говорейки за огромната финансова загуба на Google след ранния гаф по време на рекламно изпитание на изкуствения интелект на гиганта, „говори за степента, в която AI се е превърнал в най-новата мания за инвеститорите“.

„Доверието им в изкуствения интелект и всъщност самото им разбиране и дефиниция за него“, добавят те, „е неуместно“.

Снимка: Unsplash

Виж още: Какво предвижда един от най-влиятелните трендспотъри в света за следващата година