
Платформата за ноти Soundslice твърди, че е разработила нова функция, след като е открила, че ChatGPT неправилно е казвал на потребителите, че услугата може да импортира ASCII табулатура - текстов формат за нотиране на китара, който компанията никога не е поддържала. Инцидентът е първият случай на бизнес, който създава функционалност в пряк отговор на заблуда на модел на изкуствен интелект.
Обикновено Soundslice дигитализира ноти от снимки или PDF файлове и синхронизира нотите с аудио- или видеозаписи, като позволява на музикантите да виждат как музиката се превърта, докато я чуват да свири. Платформата включва и инструменти за забавяне на възпроизвеждането и за упражняване на трудни пасажи.
Адриан Холовати, съосновател на Soundslice, пише в неотдавнашна публикация в блога си, че процесът на разработване на последните функции е започнал като пълна мистерия. Преди няколко месеца Холовати започва да забелязва необичайна активност в регистрите за грешки на компанията. Вместо типичните качвания на ноти потребителите изпращали екранни снимки на разговори в ChatGPT, съдържащи ASCII табулатури - прости текстови изображения на музика за китара, които приличат на струни с цифри, обозначаващи позициите на праговете.
„Нашата система за сканиране не е предназначена да поддържа този стил на записване“, пише Холовати в публикацията в блога. „Защо тогава бяхме бомбардирани с толкова много ASCII табове на ChatGPT скрийншоти? Седмици наред бях в недоумение - докато сам не се заиграх с ChatGPT.“
Когато Холовати тества ChatGPT, той открива източника на объркването: моделът на изкуствения интелект инструктираше потребителите да създадат акаунти в Soundslice и да използват платформата за импортиране на ASCII табове за възпроизвеждане на аудио - функция, която не съществуваше. „Никога не сме поддържали ASCII табове; ChatGPT откровено лъжеше хората“, пише Холовати. „И ни караше да изглеждаме зле, създавайки фалшиви очаквания за нашата услуга.“
Когато ИИ модели като ChatGPT генерират фалшива информация с видима увереност, изследователите наричат това „халюцинация“ или „конфабулация“. Проблемът с моделите, които конфабулират невярна информация, е проблем за ИИ алгоритмите още от публичното пускане на ChatGPT през ноември 2022 г., когато хората започват погрешно да използват чатбота като заместител на търсачката.
Като машини за предсказване големите езикови модели, обучени върху огромни набори от текстови данни, могат лесно да създадат резултати, които изглеждат правдоподобни, но са напълно неточни. Моделите импровизират статистически, за да запълнят пропуските в „знанията“ по теми, слабо представени в данните от обучението им, като генерират текст въз основа на статистически модели, а не на фактическа точност. По този начин ChatGPT казва на своите потребители това, което искат да чуят, като измисля функция Soundslice, която има смисъл, но не съществува.
Това откритие поставя Soundslice пред необичайна дилема. Компанията е можела да публикува отказ от отговорност, предупреждаващ потребителите да игнорират твърденията на ChatGPT, но вместо това е избрала друг път. „В крайна сметка решихме: какво пък, може и да отговорим на търсенето на пазара“, обяснява Холовати. Екипът изгради вносител на ASCII табове - функция, която беше „близо до дъното на моя списък Софтуер, който очаквах да напиша през 2025 г.“ - и актуализира потребителския си интерфейс, за да информира потребителите за новата възможност.
Решението на Soundslice представлява интересен случай на „импровизация", но за Холовати ситуацията повдига философски въпроси за разработването на продукти. „Чувствата ми по този въпрос са противоречиви“, пише той. „Щастлив съм да добавя инструмент, който помага на хората. Но имам чувството, че ръката ни беше извита по странен начин. Трябва ли наистина да разработваме функции в отговор на дезинформация?“
Снимка: Unsplash/Soundslice
Виж още: Серията Samsung Galaxy Watch8: ултра удобство – от съня до тренировката