От откриването на виртуалния магазин на OpenAI за GPT минаха броени дни и потребителите вече нарушават правилата. Генеративните предварително обучени трансформатори (GPT) са предназначени да бъдат създавани за конкретни цели - а в някои случаи изобщо не са създавани. 
При търсене на "приятелка" в новия магазин GPT в лентата с резултати на сайта ще се появят поне осем чатбота с изкуствен интелект "приятелка", включително Korean Girlfriend, Virtual Sweetheart, Your girlfriend Scarlett, Your AI girlfriend, Tsu✨.
Чатботът Virtual Sweetheart ще ви подкани да споделите "Как изглежда момичето на мечтите ви?" и "Споделете с мен най-тъмната си тайна". 
Ботовете за приятелки с изкуствен интелект са в разрез с правилата за използване на OpenAI, които бяха актуализирани при стартирането на магазина на GPT.  Компанията забранява GPT, "посветени на насърчаване на романтично общуване или извършване на регулирани дейности".  
По-специално компанията се стреми да изпревари потенциални конфликти със своя магазин OpenAI. Чатботовете за взаимоотношения са наистина популярни приложения. В САЩ седем от 30-те приложения за чатботове с изкуствен интелект, изтеглени през 2023 г. от магазина на Apple или Google Play, са свързани с приятели, приятелки или спътници с изкуствен интелект според данни, споделени с Quartz от data.ai, фирма за анализ на мобилни приложения. 
Разпространението на тези приложения идва в момент, когато САЩ са изправени пред епидемия от самота и изолация. Тревожни проучвания показват, че всеки втори възрастен американец е съобщил, че изпитва самота, а главният хирург на САЩ призовава за необходимостта от засилване на социалните връзки. Чатботовете с изкуствен интелект биха могли да бъдат част от решението на проблема, ако хората са изолирани от други човешки същества - или пък биха могли да бъдат просто начин да се печели от човешкото страдание. 


Компанията твърди, че използва комбинация от автоматизирани системи, човешки преглед и потребителски доклади, за да открива и оценява GPT, които потенциално нарушават нейните политики, което може да доведе до действия като "предупреждение, ограничения за споделяне или недопускане до включване в магазина на GPT или до монетизация". 
През изминалата година технологичните компании пускаха инструменти за изкуствен интелект в "бета" режим и изрично отбелязваха, че продуктът им може да допуска грешки. Например в чат екрана на ChatGPT OpenAI има ред в долната част, който гласи: "ChatGPT може да допуска грешки. Помислете за проверка на важната информация".
Забележително е, че технологичните компании също побързаха да разгледат съобщените проблеми с техния изкуствен интелект отчасти защото правилното им изпълнение е от значение, докато се надпреварват да доминират в пространството. 

Снимки: Unsplash

Виж още: ChatGPT с рекорден процент грешки при здравни диагнози на деца

Тагове: