Неконтролируем ИИ агент предизвика сериозен инцидент със сигурността в Meta, който изложи чувствителни потребителски данни на лица без необходимите права за достъп – поредният пример за рисковете за сигурността, присъщи на ИИ системите.
Грешката се случи миналата седмица, когато софтуерен инженер използва вътрешен ИИ агент, за да разгледа технически въпрос, зададен от друг служител във вътрешен дискусионен форум, според съобщения на компанията и доклад за инцидента. Вътрешният ИИ беше идентифициран като OpenClaw: модел с отворен код, който предизвика голям интерес в технологичните среди, защото е ИИ, който „наистина прави неща“.
Това, което се случи, беше смесица от ИИ халюцинация и игра на „развален телефон“. ИИ публикува отговора си във форума без одобрението на служителя, който го беше попитал. След това друг служител е действал по съвета на ИИ, който се е оказал, че съдържа неточна информация.
В резултат на това се е разразила мини криза. В продължение на почти два часа е бил предоставен неразрешен достъп до огромно количество чувствителни данни на компанията и потребителите на инженери, които преди това не са имали одобрение да ги разглеждат. Meta е класифицирала гафа като инцидент от ниво SEV1 – второто най-високо ниво на сериозност по скалата, която компанията използва за класифициране на инциденти, свързани със сигурността.
Засега не изглежда да е настъпило нещо злонамерено в резултат на неразрешения достъп, а говорител на Meta заяви пред The Verge, че „няма злоупотреба с потребителски данни“.
Говорителят подчерта, че самият ИИ агент не е извършил никакви технически промени, като прехвърли вината върху човешка грешка.
„Служителят, който е взаимодействал със системата, е бил напълно наясно, че общува с автоматизиран бот. Това е било посочено в декларацията за отказ от отговорност в долната част на страницата и в самия отговор на служителя в тази нишка“, заяви говорителят пред The Verge. „Агентът не е предприел никакви действия, освен да отговори на въпроса. Ако инженерът, който е действал по този начин, е знаел повече или е извършил други проверки, това би могло да бъде избегнато.“
Дали Meta има мотив да омаловажи инцидента поради срам или да го раздуе, за да създаде шум около нововъзникващите възможности на изкуствения интелект, остава загадка.
Агентите с изкуствен интелект обаче вече са отговорни за катастрофални технически промени. Най-малко две прекъсвания в работата на Amazon Web Services миналата година бяха причинени от това, че вътрешният инструмент за програмиране с ИИ на Amazon е направил погрешни промени, включително изтриване на цялата среда за програмиране. Ръководството на Amazon призна на среща през март, че „промените, подпомогнати от генеративен ИИ“, нарушават основната дейност на компанията в областта на електронната търговия, и настоя, че занапред ще има по-строг контрол върху начина, по който се внедряват промените, свързани с програмирането чрез ИИ.
Може би предвестник на този последен инцидент беше грешка, свързана с изкуствения интелект, която старши служител на Meta призна миналия месец. В широко осмивана публикация директорът по безопасност на изкуствения интелект Съмър Йе заяви, че агентът OpenClaw, с който експериментирала – като му дала контрол над личния си компютър, – почти изтрил цялата ѝ пощенска кутия, като игнорирал инструкциите ѝ да спре.
Снимка: Unsplash
Виж още: 3D принтер и части за 96 долара са достатъчни, за да си направите ръчна ракетна установка (ВИДЕО)