Слуховете и изтичанията на информация са типични за технологичните компании, но няма нужда от "вземането на заложници" - били те и AI алгоритми. Оказва се, че голяма част от първоначалните запитвания към Bard били насочени към все още необявени продукти и услуги на Google - иначе казано, Bard е трябвало да предаде компанията, която стои зад него. Така например един от цитираните негови отговори гласял: "Да, Google планира да интегрира Bard в Google Assistant". След като се обяснява какво представляват услугата, се добавя, че това ще се случи "през следващите седмици". Още по-смел е начинът, по който се твърди, че се описват някои от бъдещите функционалности и предполагаемите причини Google да заложи на тях.  
От компанията обаче напомнят, че големите езикови модели (LLM) като Google Bard се обучават на "трилиони думи", за да научат как хората комуникират и да предвидят/генерират добър отговор под формата на изречение.

Тази технология обаче всъщност не е наясно с това кое е фактически правилно. Съобщението гласи:  
"Тъй като основният механизъм на LLM е този на предсказване на следващата дума или поредица от думи, LLM все още не са напълно способни да правят разлика между това, което е точна и неточна информация. Например, ако поискате от LLM да реши математическа задача с думи, той ще предвиди отговор въз основа на други, от които е научил, а не въз основа на разширени разсъждения или изчисления".
Иначе казано - Bard черпи знанията си от публична информация, която вече можете да намерите, а не например от вътрешни документи на компанията. Съответно е доста безотговорно отговори, получени чрез Bard, да бъдат представяни като официално позиция или становище от компанията и потребителите трябва да се научат да поставят граници още в самото начало.  

Снимки: Unsplash

Виж още: Чатботът с изкуствен интелект на Bing всъщност краде потребители от Google