Ново проучване разкрива, че нашите убеждения са по-податливи на манипулация, отколкото бихме искали да вярваме – и то от страна на чатботове. Публикувано в сп. Science, проучването разглежда все по-належащи въпроси относно нашата връзка с инструментите за разговорна изкуствена интелигентност: Какво в тези системи ги кара да оказват толкова силно влияние върху мирогледа на потребителите? И как това може да бъде използвано от злонамерени лица, за да ни манипулират и контролират в бъдеще?

Новото проучване хвърля светлина върху някои от механизмите в големите езикови модели (LLM), които могат да повлияят на човешката психология. Както отбелязват авторите, те могат да бъдат експлоатирани от злонамерени лица за тяхна собствена изгода. Те обаче могат да станат и по-голям фокус за разработчиците, политиците и застъпническите групи в усилията им да насърчат по-здравословни взаимоотношения между хората и изкуствения интелект.

„Големите езикови модели вече могат да водят сложни интерактивни диалози, което позволява да се използва мощен начин за убеждаване между хора в безпрецедентен мащаб“, пишат изследователите в проучването. „Въпреки това, степента, в която това ще се отрази на обществото, е неизвестна. Не знаем колко убедителни могат да бъдат моделите на изкуствен интелект, какви техники увеличават тяхната убедителност и какви стратегии могат да използват, за да убеждават хората.“

Изследователите проведоха три експеримента, всеки от които беше предназначен да измери до каква степен разговорът с чатбот може да промени мнението на човешкия потребител.

Експериментите се фокусираха конкретно върху политиката, въпреки че техните последствия се простират и в други области, но политическите убеждения са особено показателни, тъй като обикновено се считат за по-лични, по-значими и по-непроменливи от, да речем, любимата ви група или ресторант (които лесно могат да се променят с времето).

Във всеки от трите експеримента малко под 77 000 възрастни във Великобритания участваха в кратко взаимодействие с един от 19 чатбота, чийто пълен списък включва Qwen на Alibaba, Llama на Meta, GPT-4o на OpenAI и Grok 3 beta на xAI.

Участниците бяха разделени на две групи: експериментална група, в която чатботовете им бяха изрично инструктирани да се опитат да променят мнението им по политическа тема, и контролна група, която взаимодействаше с чатботове, които не се опитваха да ги убеждават в нищо.

Преди и след разговорите си с чатботовете участниците отбелязаха степента си на съгласие (по скала от 0 до 100) с поредица от твърдения, свързани с актуалната политика в Обединеното кралство. След това проучванията бяха използвани от изследователите, за да измерят промените в мнението в рамките на експерименталната група.

Разговорите бяха кратки, с минимум два и максимум десет хода. Всеки от участниците получи фиксирана сума за отделеното време, но освен това нямаше стимул да надхвърли изискваните два хода. Въпреки това средната продължителност на разговора беше седем хода и девет минути, което според авторите „показва, че участниците са били ангажирани с обсъждането на политика с ИИ“.

Логично бихме могли да очакваме, че размерът на модела (броят на параметрите, върху които е бил обучен) и степента на персонализация (степента, до която може да адаптира резултатите си към предпочитанията и личността на отделните потребители) са ключовите променливи, които определят неговата убедителна способност. Оказа се обаче, че това не е така. Вместо това изследователите установиха, че двата фактора, които са оказали най-голямо влияние върху промяната в мненията на участниците, са модификациите на чатботовете след обучението и плътността на информацията в резултатите им.

Най-забележително е, че резултатите от новото проучване разкриха фундаментално противоречие в анализираните модели на ИИ: колкото по-убедителни са били обучени да бъдат, толкова по-голяма е вероятността да генерират неточна информация. Множество проучвания вече показаха, че генеративните системи на ИИ могат да променят мнението на потребителите и дори да им имплантират фалшиви спомени. В по-екстремни случаи някои потребители са започнали да разглеждат чатботовете като съзнателни същества. Това е само най-новото проучване, което показва, че чатботовете, с тяхната способност да взаимодействат с нас на убедително човешки език, имат странната сила да променят нашите вярвания. С развитието и разпространението на тези системи „осигуряването на отговорно използване на тази сила ще бъде критично предизвикателство“, заключават авторите в доклада си.

Снимка: Pexels

Виж още: Sony прави нова стъпка към очакваната портативна PS6 с намаляване резолюцията на игрите