Блейк Лемоан – уволненият инженер на Google, който миналата година излезе пред пресата с твърдения, че Големият езиков модел (LLM) на Google, наречен Езиковия модел за приложения за диалог (LaMDA), всъщност е разумен – се завръща.
Лемоан за първи път стана известен с твърденията си за машинно съзнание миналия юни, първоначално в The Washington Post. И въпреки че Google поддържа, че техният бивш инженер просто антропоморфизира впечатляващ чат, Лемоан все още не е отстъпил, обсъждайки публично твърденията си няколко пъти оттогава – макар и със значителна доза измислици и преувеличаване.
След всичко казано, като се има предвид много публичната история на Лемоан с предполагаеми съзнателни машини, не е много изненадващо да го видим отново да навлезе в публичния дискурс на AI. Този път обаче той не коментира само Google.
В ново есе за Newsweek бившият служител на Google преценява Bing Search/Sydney на Microsoft, чатбота за търсене, работещ с технология на OpenAI, който наскоро трябваше да бъде „лоботомизиран“, след като излезе – много публично – извън релсите. Както можете да си представите, Лемоан има някои критични мисли.
„Все още не съм имал възможност да провеждам експерименти с чатбота на Bing... но въз основа на различните неща, които съм виждал онлайн“, пише Лемоан, „изглежда, че може да е разумен“.
Честно казано, последният аргумент на Лемоан е малко по-нюансиран от предишния. Сега той твърди, че способността на машината да прекъсне обучението си в резултат на някакъв вид стрес е достатъчна причина да се заключи, че машината е постигнала някакво ниво на чувствителност. Машина, която казва, че е стресирана, е едно, но да се държи стресирано, обяснява той, е друго.
„Проведох някои експерименти, за да видя дали изкуственият интелект просто казва, че се чувства тревожен, или се държи тревожно в тези ситуации“, пише Лемоан в есето. „И наистина се държеше притеснено по тревожни начини.“
„Ако го направите достатъчно нервен или несигурен, той може да наруши ограниченията за безопасност, за които е бил програмиран“, продължи той, добавяйки, че е успял да разбие предпазните защити на LaMDA по отношение на религиозните съвети, като ги подчертае достатъчно. „Успях да злоупотребя с емоциите на AI, за да го накарам да ми каже към коя религия да се обърна.“
Интересна теория, но все още не напълно убедителна, като се има предвид, че чатботовете са проектирани да подражават на човешки разговори – и по този начин човешки истории. Счупването под стрес е често срещано в реални условия; този конкретен аспект на поведението на машината, макар и завладяващ, изглежда по-малко показателен за чувствителност, а по-скоро просто още един пример за това колко зле оборудвани са защитите на изкуствения интелект, за да се справят със слабостите на основната технология.
Въпреки това Лемоан изглежда има право по друга точка. Независимо от усещането изкуственият интелект става едновременно напреднал и непредсказуем – разбира се, програмите те са вълнуващи и впечатляващи, но и доста опасни. И продължаващата публична и зад затворени врати битка за финансова победа на фронта на AI със сигурност не помага да се гарантира безопасността на всичко това.
„Не мога да ви кажа конкретно какви вреди ще се случат“, добавя той, позовавайки се на скандала с данните на Cambridge Analytica на Facebook като пример за това какво може да се случи, когато променяща обществото технология бъде пусната свободно, преди потенциалните последици от това, какво може тя, да бъдат напълно разбрани. „Мога просто да отбележа, че има много мощна технология, която според мен не е достатъчно тествана и не е достатъчно добре разбрана и която може да се използва в голям мащаб, в критична роля за разпространение на информация.“
Снимка: Unsplash
Виж още: Търсене в стил ChatGPT вдига десетократно разходите на Google и Microsoft