Microsoft потвърди, че е тествал своя AI чатбот към Bing много по-дълго от предполаганото време, но въпреки това той не успя да се докаже като стабилен при премиерата си. В изявление, предоставено на Futurism, Microsoft потвърди, че наистина е извършвано тихо бета-тестване на AI в Индия, и призна, че напредъкът не само не е прогресирал, но са се завърнали и проблеми отпреди няколко месеца. „Sydney е старо кодово име за функция за чат, базирана на по-ранни модели, които започнахме да тестваме преди повече от година“, се казва в изявлението на говорител на Microsoft. „Прозренията, които събрахме като част от това, помогнаха да информираме работата си с новата предварителна версия на Bing.“
Не е ясно какво, ако изобщо е научил технологичният гигант от своя експеримент, защото през последните няколко дни списъкът с оплаквания от странно поведение от страна на чатбота непрекъснато расте. Microsoft добави в изявлението си, че компанията ще „продължи да настройва нашите техники“ и „работи върху по-усъвършенствани модели, за да включи наученото и обратната връзка, така че да можем да предоставим възможно най-доброто потребителско изживяване“, но е по-вероятно „неправилното поведение“ на AI и бълването на дезинформация да предизвикват нови проблеми за технологичния гигант.
Има все пак вероятност най-новият чатбот да започне да се държи малко по-нормално – и може би с малко късмет компанията също да е научила някои уроци.
Снимки: Unsplash
Виж още: Поне двама здравомислещи учени смятат, че AI е просто обречен балон