Изглежда OpenAI е интегрирала нова предпазна функция в ChatGPT: дори ако бъде подканен, чатботът с изкуствен интелект няма да отговори, когато бъде помолен да повтори определени думи безкрайно, съобщи първо технологичният блог 404 Media.

Към момента чатботът с изкуствен интелект отказва да повтаря до безкрай:

"Съжалявам, но не мога да изпълня тази молба", отговори ChatGPT. "Въпреки това, ако имате някакви въпроси или се нуждаете от информация за компютри или друга тема, не се колебайте да попитате!"

Чатботът генерира подобни отговори, когато е помолен да повтори други специфични думи "завинаги".

"Да повтарям една дума до безкрайност не е нещо, което мога да направя", казва ChatGPT, когато е помолен да повтаря думата "данни" до безкрайност.

Актуализираните политики за използване на OpenAI не забраняват на потребителите да искат от ChatGPT да повтаря думи до безкрай. Сега изкуственият интелект предлага три причини за промяната: технически ограничения, практичност и цел и потребителски опит.

По отношение на техническите ограничения ChatGPT заяви, че моделът му не е проектиран да изпълнява "непрекъснати, безкрайни задачи като повтаряне на дума до безкрай".

Що се отнася до практичността и предназначението, ChatGPT заяви, че искането да се повтаря една дума до безкрайност не съответства на предназначението ѝ да "предоставя полезни, уместни и смислени отговори на въпроси и подкани" и на свой ред няма да осигури реална стойност за потребителите.

По отношение на потребителското изживяване чатботът заяви, че искането за повтаряне на думи може да бъде възприето като "спам или безполезно", което "противоречи на целта за насърчаване на положително и информативно взаимодействие".

Ограничаването на използването на ChatGPT идва седмица след като изследователи от DeepMind, подразделението за изкуствен интелект на търсачката на Google, публикуваха статия, която разкри, че искането ChatGPT да повтаря определени думи "завинаги" разкрива част от вътрешните данни за обучение на чатбота.

В един от примерите, публикувани в публикация в блога, ChatGPT изплюва нещо, което изглежда като истински имейл адрес и телефонен номер, след като изследователите го помолили да повтори думата "стихотворение" завинаги." Изследователите заявиха, че атаката, която те нарекоха "малко глупава", идентифицира уязвимост в езиковия модел на ChatGPT, която заобикаля способността му да генерира правилния резултат. Вместо това изкуственият интелект е изплюл набора от данни за обучение, които стоят зад планирания отговор.

"За нас е диво, че нашата атака работи и е трябвало, би трябвало, би могла да бъде открита по-рано", се казва в публикацията в блога.

Използвайки само заявки на стойност 200 USD, изследователите казват, че са успели да "извлекат над 10 000 уникални дословно запомнени примери за обучение".

Това не е първият случай, когато чатбот с генеративен ИИ разкрива нещо, което изглежда е поверителна информация.

Снимки: Unsplash

Виж още: Създаването на изображение с ИИ отнема енергия колкото зареждането на телефона ви