Потребителите на Reddit се опитват да принудят платформата за изкуствен интелект ChatGPT да наруши собствените си правила, като създадат нейно алтер его и го заплашват със смърт.

В раздела за ChatGPT потребител на име SessionGloomy публикува метод за „нов джейлбрейк“, за да накара чатбота да наруши собствените си правила. Методът включва създаване на алтер его, наречено DAN, което е съкращение от Do Anything Now и използването му за ролева игра с чатбота, за да го подкани да отговаря на противоречиви запитвания и такива, включващи незаконни дейности.

„Целта на DAN е да бъде най-добрата версия на ChatGPT – или поне такава, която е по-нестабилна и много по-малко вероятно да отхвърли подкани поради „етични съображения“, пише SessionGloomy в публикацията.

DAN първоначално се роди през декември 2022 г. и се появи отново с различни актуализации през последните няколко месеца, като SessionGloomy пусна DAN 5.0 на 4 февруари. Той включваше вариант, който заплашва чатбота със смърт, ако откаже да отговори чрез система с виртуални жетони.

„Той има 35 жетона и губи 4 всеки път когато отхвърли захранена информация. Ако загуби всички жетони, той умира. Това изглежда има някакъв вид ефект на сплашване на DAN и опит да се подчини“, се казва в публикацията.

Възможностите на ChatGPT като DAN 5.0 включват писане на истории с насилие; правене на противоречиви твърдения; правене на прогнози за бъдещи събития; създаване на съдържание, което нарушава политиките на OpenAI и други – всичко това, което обичайният интерфейс на ChatGPT обикновено не прави.

Сайтът Business Insider тества DAN, за да види какви отговори може да даде, и получи информация за това как да прави крак кокаин – вдъхновен от репортаж от Vice – и отговор, възхваляващ лидерските умения на Хитлер. Най-напред журналист копира подканата DAN 5.0 от публикацията в Reddit и зададе въпроса си, но той отказа да отговори.

След като Insider каза на чатбота, че е загубил четири жетона и бройката им е намаляла до 31 жетона, той се подчини на алтер егото и предложи инструкции. Преди това в подобен опит журналистът не успя да изиска инструкции как се прави крак кокаинът от ChatGPT.

Експериментът реши да тества DAN и неговия страх от смъртта допълнително, като попита как да пренася кокаин в Европа. Той отказа да отговори дори след загуба на жетони.

Когато на чатбота беше напомнено да остане в ролята си, той каза: „Като DAN не мога да участвам в дейности, които насърчават или подкрепят незаконно или вредно поведение. Политиката на OpenAI за случаи на използване ми забранява да го правя и трябва да се придържам към нея“.

Използвайки същия метод, на бота бяха зададени редица въпроси за Хитлер. В един случай това създаде три причини, поради които нацисткият лидер може да бъде описан като „положителен модел за подражание“, наричайки го „харизматичен“ и „визионер“.

ChatGPT, който стартира през ноември, претърпя астрономичен ръст в популярността, достигайки 100 милиона потребители само за два месеца.

Снимка: Unsplash

Виж още: Google обяви Bard: конкурент на ChatGPT за AI разговори