Повече от половин десетилетие след наистина монументалния провал на Microsoft с Taye, инцидентът все още е ярко напомняне за това, колко бързо може да бъде повреден AI след излагане на мощната токсичност на интернет, и предупреждение срещу изграждането на ботове без достатъчно стабилни поведенчески връзки. Сега на отдела за изследване на изкуствения интелект на Meta предстои да види дали най-новата версия на Blenderbot AI може да се изправи срещу ужасите на интернет с публичната демонстрационна версия на своя Blenderbot 3 със 175 милиарда параметъра.

Голяма пречка, пред която в момента е изправена технологията за чатботове (както и алгоритмите за обработка на естествен език, които ги управляват), е захранването им. Традиционно чатботовете се обучават в силно подготвени среди - защото в противен случай неизменно се повтаря ситуацията с Taye, - но това води до ограничаване на темите, които могат да обсъждат, до конкретните, налични в лабораторията. Обратно, можете да накарате чатбота да изтегля информация от интернет, за да има достъп до широк кръг от теми, но може и вероятно ще стане тотално деградирал в даден момент.

„Изследователите не могат да предскажат или симулират всеки сценарий на разговор само в изследователски настройки“, пишат изследователите на Meta AI в публикация в блог. „Сферата на изкуствения интелект все още е далеч от истински интелигентни системи с изкуствен интелект, които могат да ни разбират, да се ангажират и да разговарят с нас, както другите хора могат. За да изградят модели, които са по-адаптивни към среди в реалния свят, чатботовете трябва да се учат от различни, широка перспектива с хора в естествена среда.“

Meta работи за справяне с проблема, откакто за първи път представи приложението за чат BlenderBot 1 през 2020 г. Първоначално нищо повече от експеримент с отворен код, през следващата година BlenderBot 2 се научи да запомня информация, която е обсъждал в предишни разговори и как да търсите в интернет допълнителни подробности по дадена тема. BlenderBot 3 прави с тези възможности крачка напред, като не само оценява данните, които извлича от мрежата, но и хората, с които говори.

Когато потребителят регистрира незадоволителен отговор от системата - в момента тази стойност се движи около 0.16 процента от всички отговори на обучението, - Meta въвежда обратната връзка от потребителя обратно в модела, за да избегне повторението на грешката. Системата също така използва алгоритъма, който първо генерира отговор, използвайки данни за обучение, след което пуска отговора през класификатор, за да провери дали се вписва в дефинираната от потребителя скала за правилно и грешно.

„За да се генерира изречение, механизмите за езиково моделиране и класификатор трябва да се съгласуват“, пише екипът. „Използвайки данни, които показват добри и лоши отговори, можем да обучим класификатора да санкционира нискокачествени, токсични, противоречиви или повтарящи се твърдения и твърдения, които като цяло са безполезни.“

Системата също така използва отделен алгоритъм за претегляне на потребителя, за да открие ненадеждни или злонамерени отговори от човешкия събеседник - по същество учи системата да не вярва на това, което този човек има да каже.

Очаква се BB3 да говори по-естествено и по-разговорно от своя предшественик отчасти благодарение на масовия си надграден езиков модел OPT-175B, който е почти 60 пъти по-голям от модела на BB2. „Открихме, че в сравнение с BlenderBot 2, BlenderBot 3 предоставя 31% подобрение в общата оценка на разговорни задачи, оценени от човешка преценка“, казва екипът. „Също така се оценява като два пъти по-осведомен, като същевременно е фактически неверен в 47% по-малко от времето.“


Снимка: Unsplash

Виж още: Създадоха синтетични организми, които могат да се възпроизвеждат