Вероятно знаете, че трябва да приемате с резерви всичко, което казва чатботът с изкуствен интелект, тъй като често той просто събира безразборно данни, без да има достатъчно умения да определи тяхната достоверност. Но може би има причина да бъдете още по-предпазливи. Ново изследване установи, че много системи с изкуствен интелект вече са развили способността си умишлено да представят на човешкия потребител невярна информация. Тези хитри ботове са усвоили изкуството на измамата.
„Разработчиците на ИИ нямат уверено разбиране за това какво предизвиква нежеланото поведение на ИИ като измамата“, казва математикът и когнитивен учен Питър Парк от Масачузетския технологичен институт (MIT).
„Но най-общо казано, смятаме, че измамата от страна на ИИ възниква, защото стратегия, базирана на измама, се е оказала най-добрият начин за добро представяне в задачата за обучение на дадения ИИ. Измамата им помага да постигнат целите си.“
Една от сферите, в които системите с изкуствен интелект се оказват особено умели в мръсните лъжи, са игрите. В работата на изследователите има три забележителни примера. Един от тях е CICERO на Meta, проектиран да играе настолната игра Diplomacy, в която играчите се стремят към световно господство чрез преговори. Meta е възнамерявала нейният бот да бъде полезен и честен; в действителност се е получило точно обратното.
„Въпреки усилията на Meta, CICERO се оказа опитен лъжец“, констатират изследователите. „Тя не само предаде други играчи, но и извърши предумишлена измама, като предварително планираше да изгради фалшив съюз с човешки играч, за да го подмами да се остави незащитен за атака.“
Изкуственият интелект се оказа толкова добър в това да бъде лош, че се класира в първите 10 процента от човешките играчи, които са играли многократно.
Но той далеч не е единственият нарушител. AlphaStar на DeepMind, система за изкуствен интелект, създадена за игра на StarCraft II, се възползва напълно от механиката на играта „мъглата на войната“, за да заблуждава, карайки човешките играчи да мислят, че отива в една посока, а всъщност да се насочва в друга. А системата Pluribus на Meta, създадена за игра на покер, успя успешно да блъфира човешките играчи и да ги накара да се откажат.
Това изглежда като дреболия и донякъде е така. Залогът не е особено висок за игра на дипломация срещу куп компютърни кодове. Но изследователите отбелязват и други примери, които не са толкова благоприлични.
Системите за изкуствен интелект, обучени да провеждат симулирани икономически преговори например, се научиха да лъжат за своите предпочитания, за да получат предимство. Други системи с изкуствен интелект, проектирани да се учат от човешката обратна връзка, за да подобрят представянето си, се научиха да мамят рецензентите си да ги оценяват положително, като лъжат за това дали дадена задача е била изпълнена.
И, да, това са и чатботове. ChatGPT-4 заблуди човек, че чатботът е човек с увредено зрение, за да получи помощ при решаването на CAPTCHA.
Може би най-тревожният пример е, че системите с изкуствен интелект се научават да мамят тестовете за безопасност. В тест, предназначен за откриване и отстраняване на по-бързо възпроизвеждащи се версии на ИИ, ИИ се научи да се прави на мъртъв, като по този начин заблуди теста за безопасност относно истинската скорост на възпроизвеждане на ИИ.
„Като системно мами тестовете за безопасност, наложени му от човешките разработчици и регулатори, измамният ИИ може да въведе нас, хората, във фалшиво чувство за сигурност“, казва Парк.
Тъй като поне в някои случаи способността за измама изглежда противоречи на намеренията на човешките програмисти, способността да се научим да лъжем представлява проблем, за който нямаме подредено решение. Започват да се въвеждат някои политики, като например Закона за изкуствения интелект на Европейския съюз, но дали те ще се окажат ефективни, предстои да разберем.
„Ние като общество се нуждаем от колкото може повече време, за да се подготвим за по-напредналите измами на бъдещите продукти на ИИ и моделите с отворен код. С усъвършенстването на измамните възможности на системите за ИИ опасностите, които те представляват за обществото, ще стават все по-сериозни", казва Парк.
„Ако забраната на измамата с помощта на ИИ е политически неосъществима в настоящия момент, препоръчваме измамните системи с ИИ да бъдат класифицирани като високорискови.“
Снимка: Unsplash