ChatGPT и други чатботове, управлявани от изкуствен интелект, се прочуха с плавните си, граматически издържани изречения, които дори могат да имат естествен ритъм.
Но не се подлъгвайте да приемате тази добре изпълнена реч за мисъл, емоция или дори намерение, казват експертите.
Начинът, по който работи чатботът, прилича повече на машина, която извършва математически изчисления и статистически анализ, за да извика правилните думи и изречения в зависимост от контекста. Както е известно, базата е изградена от много обучения, сред които са и такива от човешки анотатори, които са му предоставили обратна връзка и по този начин са симулирали функционални разговори.
Ботове като ChatGPT също са обучени върху големи езикови модели (LLM) и обеми от разговори, които са задали посоката на това как машините да взаимодействат с човешки потребители. OpenAI заявява на своя уебсайт, че моделите ѝ се обучават на информация от различни източници, като например публикувани онлайн текстове и информация, включително от нейните потребители и материали, които е лицензирала.
Системите се обучават на поредици от думи и научават значението на думите в тези поредици. Така че всички тези знания не само обучават големите езикови модели на фактическа информация, но и им помагат да разгадаят моделите на речта и как обикновено се използват и групират думите.
"Можете да кажете: "Това е токсично, това е твърде политическо, това е мнение", и да го настроите да не генерира тези неща", казва Кристиан Хамънд, професор по компютърни науки в Северозападния университет. Хамънд е и директор на Центъра за повишаване на безопасността на машинния интелект към университета.
Когато поискате от чатбот да отговори на прост въпрос, процесът на генериране може да бъде прост: той използва набор от алгоритми, за да избере най-вероятното изречение, с което да отговори. След това селектира най-добрите възможни отговори в рамките на милисекунди и от тези най-добри избори представя един на случаен принцип. (Ето защо многократното задаване на един и същ въпрос може да генерира малко по-различни отговори.)
Той може също така да разделя въпросите на няколко части, като отговаря на всяка част последователно и използва отговорите си, за да си помогне да завърши отговора.
Да кажем, че сте поискали от бота да посочи президент на САЩ, който има същото име като главния актьор от филма "Камелот". Ботът може първо да отговори, че въпросният актьор е Ричард Харис, а след това да използва този отговор, за да ви даде Ричард Никсън като отговор на първоначалния ви въпрос - казва Хамънд.
"Неговите собствени отговори по-рано стават част от серията", каза Хамънд.
Какво се случва, когато му зададете въпрос, на който той не знае отговора? Това е мястото, където чатботовете създават най-много проблеми поради присъщата им черта - те не знаят какво не знаят. Затова те екстраполират въз основа на това, което знаят, т.е. правят предположения.
Но не ви казват, че предполагат - може просто да представят информацията като факт. Когато чатботът измисля информация, която представя на потребителя като фактическа, това се нарича "халюцинация".
"Това е, което наричаме знание за знанието или метапознание", казва Уилям Уанг, доцент, преподаващ компютърни науки в Калифорнийския университет в Санта Барбара. Или иначе казано: "Моделът всъщност не разбира добре известните неизвестни".
Снимки: Unsplash