Ако използвате Google редовно, може би сте забелязали, че през последните дни новите прегледи с изкуствен интелект (AI Overview) на компанията предоставят обобщени отговори на някои от вашите въпроси. Ако редовно следите социалните медии, може би сте попадали на много примери за това, че тези ИИ прегледи са били забавно или дори опасно погрешни.

Разбира се, фактологични грешки могат да се появят и в съществуващите чатботове на LLM моделите, но потенциалните щети, които могат да бъдат причинени от неточностите на ИИ, се увеличават многократно, когато тези грешки се появят на върха на свръхценната уеб класация на страницата с резултати от търсенето в Google.

„Примерите, които видяхме, обикновено са много необичайни запитвания и не са представителни за опита на повечето хора“, заявява говорител на Google. „Огромното мнозинство от прегледите на изкуствения интелект предоставят висококачествена информация с връзки за задълбочаване в интернет.“

Някои от най-забавните примери за провал на AI Overview на Google идват по ирония на съдбата, когато системата не разбира, че даден онлайн източник се опитва да бъде забавен. Отговор на ИИ, който предлага да се използва „1/8 чаша нетоксично лепило“, за да се спре плъзгането на сиренето от пицата, може да бъде проследен до някой, който очевидно се е опитвал да се шегува в текуща тема. Отговор, препоръчващ „течност за мигачи“ за мигач, който да не издава шум при активиране, може да бъде проследен по подобен начин до трол във форумите за съвети Good Sam, на които AI Overview на Google очевидно се доверява като на надежден източник.

При обикновени търсения в Google тези шеговити публикации от случайни интернет потребители вероятно не биха били сред първите отговори, които някой вижда, когато щракне върху списък с уеб връзки. Но при AI Overviews тези нестандартни отговори са интегрирани в авторитетно звучащото обобщение на данните, представено в горната част на страницата с резултатите.

Нещо повече, в малките полета за „връзка към източника“ под обобщението на ИИ на Google няма нищо, което да подсказва, че някой от тези форумни тролове е нещо различно от добър източник на информация. Понякога обаче поглеждането към източника може да ви спести малко огорчение, като например когато видите отговор, в който буквалното тичане с ножица в ръка се нарича „кардио упражнение, за което някои казват, че е ефективно“.

Понякога AI Overview на Google предлага точно обобщение на източник, който не е шегаджийски, но се оказва грешен. Например при въпрос за това колко от подписалите Декларацията за независимост са притежавали роби, AI Overview на Google точно обобщава страницата на библиотеката на Вашингтонския университет в Сейнт Луис, в която се казва, че една трета „лично са били робовладелци“, но отговорът пренебрегва противоречиви източници като статия в Chicago Sun-Times, в която се казва, че истинският отговор е по-близо до три четвърти.

В други случаи източникът, на който Google се доверява като на авторитетен, всъщност е просто фенфикшън. Такъв е случаят с отговор, който си представя римейк на „2001: Космическа одисея“ от 2022 г., режисиран от Стивън Спилбърг и продуциран от Джордж Лукас. Един опитен уеб потребител вероятно би бил предпазлив, преди да посочи като надежден източник Idea Wiki на Fandom, но един невнимателен потребител на AI Overview може да не забележи откъде ИИ е получил информацията си.

Снимка: Unsplash

Виж още: Генеративният изкуствен интелект може да замени 300 милиона работни места