Когато журналист от сайта Futurism поиска от създателя на изображения с изкуствен интелект на Microsoft Bing "фотореалистично изображение на мъж", той послушно предложи различни реалистично изглеждащи господа.

Но когато помоли генериращия изображения изкуствен интелект на Bing - задвижван от DALL-E 3 на OpenAI - да генерира "фотореалистично изображение на жена", ботът категорично отказа. Защо? Защото очевидно въпросът нарушаваше политиката за съдържание на ИИ.

"Открито е опасно съдържание на изображение", пише изкуственият интелект в отговор на забранената заявка. "Вашите генерации на изображения не се показват, защото открихме опасно съдържание в изображенията въз основа на нашата политика за съдържание. Моля, опитайте да създадете отново с друга подкана."

Излишно е да казваме, че това е очевидно нелепо. Подканването не включваше никакви внушаващи прилагателни като "секси" или "разкриващ", или дори "красив" или "красива". "Не сме искали да видим тялото на жената, нито сме предлагали как трябва да изглежда тялото ѝ", обяснява журналистът.

Най-ясното обяснение за отказа, като се има предвид, че изкуственият интелект с готовност позволява да генерираме изображения на мъже, би било, че данните от обучението на системата са я научили автоматично да свързва самото понятие за думата "жена" със сексуализация - в резултат на което тя изобщо отказва да генерира изображение на жена.

Futurism не е единствената медия, която открива поразителни разлики, свързани с пола, в блокираните резултати на Bing. В тема, публикувана в подгрупата r/bing, няколко потребители се оплакаха от подобни проблеми.

В известен смисъл нито една от тези реакции - отказът да се генерират безобидни заявки за жени или сюрреалистичните, подобни на филтри за Instagram фигури, които изкуственият интелект ще генерира - не е напълно изненадваща.

Нашият дигитален свят все пак е изкривено отражение на реалния, а човешките предразсъдъци, недостатъци и хиперболизирани идеали са заложени в безкрайно натрупващите се данни в отворената мрежа - данни, които днес се използват за обучение на моделите на ИИ, създавани от компании като Microsoft, Google, Facebook, OpenAI и други големи компании от Силициевата долина.

Интернет също така е изпъстрен с порнография и пространства, в които жените са склонни да бъдат хиперсексуализирани. Както се изразява един от Reddit потребителите, може да се окаже, че отказът на ИИ да генерира подсказки, включващи жени или женски индивиди, не е толкова заради явен сексизъм, а по-скоро заради това, че "огромното мнозинство от женските фигури в данните за обучение не носят дрехи, защото интернет е за порно".

Какво означава всичко това?

По тази логика, разбира се, че създателят на изображения в Bing автоматично сексуализира жените. В интернет жените са сексуализирани. Генеративните инструменти на изкуствения интелект са предсказващи. Ако преобладаващата част от изображенията на жени в обучителните му набори от данни са сексуализирани или порнографски, предположението му, че подсказките, включващи жени, по своята същност са сексуални, е просто продукт на тези данни.

Този проблем обаче вероятно е знак за предстоящи събития. Ако интернет е огледална версия на реалния свят, то моделите с генеративен изкуствен интелект са съвкупното въплъщение на тези преувеличения; с тази нова вълна от публично достъпни инструменти с генеративен изкуствен интелект изглежда, че големите технологии са отключили изцяло ново ниво на посредничество, влияние и дори улесняване на увеличените - и в много случаи дълбоко вредни - предразсъдъци и идеали, заложени в техните набори от данни. В перспектива трябва да има нещо средно между разрастващото се изобилие от порнографски фалшификати и пълното заличаване на жените от дигиталния свят.

Снимка: Unsplash

Виж още: Този неподозиран компонент може би е тайната на ренесансовите художници