Предполагаемият разумен чатбот на Google е един от най-противоречивите проекти на компанията, който повдигна много опасения относно изкуствения интелект. Въпреки полярните на моменти обществени нагласи Google вече регистрира заинтересовани потребители, които да говорят с неговия чатбот и да предоставят на компанията обратна връзка.
На срещата на върха I/O 2022 през май главният изпълнителен директор на Google Сундар Пичай докладва за експерименталния разговорен AI модел LaMDA 2 на компанията. Тогава той каза, че проектът ще бъде отворен за бета-тестери през следващите месеци, и сега потребителите могат да направят резервации, за да бъдат сред първите ентусиасти, които тестват този предполагаемо разумен чатбот.
Твърди се, че LaMDA – Езиков модел за диалогови приложения – е модел за разумна обработка на естествен език (NLP). Това е вид интерфейс между хората и компютрите. Гласовите асистенти като Siri или Alexa са видни примери за възможностите на технологията, като например трансформирането на човешката реч в команди, превод в реално време и субтитри.
През юли Google уволни един от своите старши софтуерни инженери Блейк Лемоан, който открито заяви, че чатботът LaMDA е разумен и действа като самоосъзнат човек. За да оправдае уволнението Google каза, че служителят е нарушил правилата за работа и сигурност на данните. Освен това двама членове на групата за изследване на етичния AI на Google напуснаха компанията през февруари, заявявайки, че не могат да приемат уволнения.
Потребителите, които се регистрират за бета-програмата LaMDA, могат да взаимодействат с тази NLP в контролирана и наблюдавана среда. Потребителите на Android в САЩ са първите, които ще имат тази възможност, а програмата ще се разшири до използващите iOS през следващите седмици. Eксперименталната програма предлага някои демонстрации на бета-потребители, за да бъдат разкрити възможностите на LaMDA.
Според инженерите на Google първата демонстрация се нарича Imagine It, която позволява на потребителите да назоват място и предлага пътища за изследване на въображението им. Втората демонстрация се нарича List It, при която потребителите могат да споделят цел или тема и след това тя да бъде разбита на списък с полезни подзадачи. И накрая Talk About It (Dogs Edition) дава възможност за отворен разговор за кучета между потребители и чатботове.
Екипът от инженери на Google казва, че е „провел специални кръгове на състезателно тестване, за да открие допълнителни недостатъци в модела“. Освен това те не твърдят, че тяхната система е безотказна. „Моделът може да разбере погрешно намерението зад термините за самоличност и понякога не успява да произведе отговор, когато се използват, тъй като изпитва трудности при разграничаването между доброкачествени и противопоставящи се подкани. Той може също така да предизвика вредни или токсични реакции въз основа на отклонения в данните за обучението, генерирайки отговори, които стереотипизират и представят погрешно хората въз основа на техния пол или културен произход.
Снимка: Unsplash
Виж още: Кошмарна грешка или гениална идея: гласов трансформатор се промъква към кол центровете